A Comissão Europeia exigirá que plataformas de tecnologia como TikTok, X e Facebook detectem conteúdos gerados por inteligência artificial (IA) para proteger as próximas eleições europeias contra desinformação.
A comissão iniciou uma consulta pública sobre as diretrizes propostas para a segurança eleitoral para plataformas online muito grandes (VLOPs) e motores de busca online muito grandes (VLOSEs). As recomendações visam reduzir as ameaças democráticas apresentadas por IA generativa e deepfakes.
As diretrizes preliminares oferecem exemplos de possíveis medidas para abordar riscos relacionados às eleições, incluindo ações específicas relacionadas a conteúdos de IA generativa, planejamento para mitigação de riscos antes ou após um evento eleitoral e fornecimento de orientações claras para as eleições do Parlamento Europeu.
A IA generativa pode enganar eleitores ou manipular processos eleitorais ao criar e disseminar conteúdos sintéticos inautênticos e enganosos sobre atores políticos, falsas representações de eventos, pesquisas eleitorais, contextos ou narrativas.
Ensuring election integrity means protecting public discourse – much of which occurs online.
— European Commission (@EU_Commission) February 8, 2024
We are seeking views on our draft Digital Services Act guidelines to address the emerging online risks to electoral processes while safeguarding the building blocks of our democracies ↓
Atualmente aberta para consulta pública na União Europeia até 7 de março, as diretrizes preliminares de segurança eleitoral recomendam alertar os usuários nas plataformas relevantes sobre possíveis imprecisões em conteúdos produzidos por IA generativa.
De acordo com o esboço, as diretrizes também sugerem direcionar os usuários para fontes de informação autoritativas e afirmam que as grandes empresas de tecnologia devem implementar salvaguardas para evitar a geração de conteúdos enganosos com potencial significativo para impactar o comportamento do usuário.
Sobre textos gerados por IA, a recomendação atual é que VLOPs/VLOSEs "indiquem, quando possível, nas saídas geradas, as fontes concretas das informações usadas como dados de entrada para permitir que os usuários verifiquem a confiabilidade e contextualizem ainda mais a informação."
As "melhores práticas" propostas nas diretrizes preliminares para mitigação de riscos são inspiradas na proposta legislativa recentemente aprovada pela UE, o Ato de IA, e seu equivalente não vinculativo, o Pacto de IA.
Preocupações com sistemas avançados de IA, como modelos de linguagem de grande escala, surgiram desde o aumento viral da IA generativa em 2023, tornando ferramentas como o ChatGPT da OpenAI amplamente conhecidas.
A comissão não especificou exatamente quando as empresas serão obrigadas a rotular conteúdo manipulado sob a lei de moderação de conteúdo da UE, o Ato de Serviços Digitais.
No entanto, em uma postagem de blog da empresa, a Meta anunciou planos de introduzir novas diretrizes sobre conteúdo gerado por IA no Facebook, Instagram e Threads nos próximos meses. Qualquer conteúdo reconhecido como gerado por IA, seja por metadados ou marca d'água intencional, receberá um rótulo visível.