A Meta implementará novos padrões relacionados ao conteúdo gerado por IA no Facebook, Instagram e threads nos próximos meses, de acordo com uma postagem no blog da empresa em 6 de janeiro.

O conteúdo que for identificado como gerado por IA, devido a metadados ou outras marcações d'água intencionais, receberá um rótulo visível. Os usuários das plataformas da Meta também terão a opção de sinalizar o conteúdo não marcado suspeito de ser gerado por IA.

Crowdsourcing

Se isso parece familiar, é porque espelha as práticas iniciais de moderação de conteúdo da Meta. Antes do início da era do conteúdo gerado por IA, a empresa (então Facebook) desenvolveu um sistema voltado para o usuário para relatar conteúdo que violava os termos de serviço da plataforma.

Avançando para 2024, a Meta está equipando usuários em suas redes sociais com ferramentas para sinalizar conteúdo novamente, usando o que pode ser a maior força de crowdsourcing de consumidores do mundo.

Isso também significa que os criadores nas plataformas da empresa terão que rotular seu próprio trabalho como gerado por IA, quando aplicável, ou poderão haver consequências.

De acordo com a postagem no blog:

“Exigiremos que as pessoas usem essa ferramenta de divulgação e rotulagem quando postarem conteúdo orgânico com um vídeo fotorrealista ou áudio realista que foi criado ou alterado digitalmente, e podemos aplicar penalidades se não o fizerem.”

Detectando conteúdo gerado por IA

A Meta diz que sempre que suas ferramentas internas são usadas para criar conteúdo gerado por IA, esse conteúdo recebe uma marca d'água e rótulo claramente indicando sua origem. No entanto, nem todos os sistemas de IA generativa têm essas salvaguardas embutidas.

A empresa afirma que está trabalhando com outras empresas por meio de parcerias de consórcio — incluindo Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock — e continuará a desenvolver métodos para detectar marcações d'água invisíveis em escala.

Infelizmente, esses métodos podem se aplicar apenas a imagens geradas por IA. “Enquanto as empresas estão começando a incluir sinais em seus geradores de imagens,” lê-se na postagem do blog, “elas ainda não começaram a incluí-los em ferramentas de IA que geram áudio e vídeo na mesma escala.”

De acordo com a postagem, isso significa que a Meta atualmente não pode detectar áudio e vídeo gerados por IA em escala — incluindo a tecnologia deepfake.

VEJA MAIS: