A Comissão Europeia exigirá que plataformas de tecnologia como TikTok, X e Facebook detectem conteúdos gerados por inteligência artificial (IA) para proteger as próximas eleições europeias contra desinformação.

A comissão iniciou uma consulta pública sobre as diretrizes propostas para a segurança eleitoral para plataformas online muito grandes (VLOPs) e motores de busca online muito grandes (VLOSEs). As recomendações visam reduzir as ameaças democráticas apresentadas por IA generativa e deepfakes.

As diretrizes preliminares oferecem exemplos de possíveis medidas para abordar riscos relacionados às eleições, incluindo ações específicas relacionadas a conteúdos de IA generativa, planejamento para mitigação de riscos antes ou após um evento eleitoral e fornecimento de orientações claras para as eleições do Parlamento Europeu.

A IA generativa pode enganar eleitores ou manipular processos eleitorais ao criar e disseminar conteúdos sintéticos inautênticos e enganosos sobre atores políticos, falsas representações de eventos, pesquisas eleitorais, contextos ou narrativas.

Atualmente aberta para consulta pública na União Europeia até 7 de março, as diretrizes preliminares de segurança eleitoral recomendam alertar os usuários nas plataformas relevantes sobre possíveis imprecisões em conteúdos produzidos por IA generativa.

De acordo com o esboço, as diretrizes também sugerem direcionar os usuários para fontes de informação autoritativas e afirmam que as grandes empresas de tecnologia devem implementar salvaguardas para evitar a geração de conteúdos enganosos com potencial significativo para impactar o comportamento do usuário.

Sobre textos gerados por IA, a recomendação atual é que VLOPs/VLOSEs "indiquem, quando possível, nas saídas geradas, as fontes concretas das informações usadas como dados de entrada para permitir que os usuários verifiquem a confiabilidade e contextualizem ainda mais a informação."

As "melhores práticas" propostas nas diretrizes preliminares para mitigação de riscos são inspiradas na proposta legislativa recentemente aprovada pela UE, o Ato de IA, e seu equivalente não vinculativo, o Pacto de IA.

Preocupações com sistemas avançados de IA, como modelos de linguagem de grande escala, surgiram desde o aumento viral da IA generativa em 2023, tornando ferramentas como o ChatGPT da OpenAI amplamente conhecidas.

A comissão não especificou exatamente quando as empresas serão obrigadas a rotular conteúdo manipulado sob a lei de moderação de conteúdo da UE, o Ato de Serviços Digitais.

No entanto, em uma postagem de blog da empresa, a Meta anunciou planos de introduzir novas diretrizes sobre conteúdo gerado por IA no Facebook, Instagram e Threads nos próximos meses. Qualquer conteúdo reconhecido como gerado por IA, seja por metadados ou marca d'água intencional, receberá um rótulo visível.