A empresa de análise de redes sociais Graphika declarou que o uso de ferramentas de IA para criar deepfakes de pessoas nuas está aumentando.

Essa prática envolve a utilização de ferramentas de inteligência artificial (IA) generativa ajustadas com precisão para eliminar roupas de imagens fornecidas pelos usuários, mesmo que de terceiros.

De acordo com o relatório da Graphika, o número de comentários e postagens no Reddit e no X contendo links de referência para 34 sites e 52 canais do Telegram que fornecem serviços de NCII sintéticos. Em 2022, totalizavam 1.280 em comparação com mais de 32.100 até agora neste ano, representando um aumento anaulizado de 2.408%.

Os serviços de NCII sintético utilizam ferramentas de inteligência artificial para criar imagens íntimas não consensuais (NCII), muitas vezes envolvendo a geração de conteúdo pornográfico sem o consentimento dos indivíduos retratados nas imagens.

A Graphika afirma que essas ferramentas de IA tornam a geração de conteúdo pornográfico realista em escala mais fácil e econômica para muitos proveores deste tipo de produto.

Sem esses provedores, os clientes enfrentariam o ônus de gerenciar seus próprios modelos de difusão de imagens personalizadas, o que consome tempo e pode ser caro.

A Graphika adverte que o uso cada vez maior de ferramentas de nudez baseadas em IA pode levar à criação de conteúdo pornográfico falso e contribuir para problemas como assédio direcionado, extorsões ligadas a conteúdo sexual e produção de material de abuso sexual infantil (CSAM).

Embora essas ferramentas de IA normalmente tenham foco na criação de imagens estáticas, a IA também está sendo usada para criar deepfakes em vídeo usando a imagem de celebridades, incluindo a personalidade do YouTube Mr Beast e o ator Tom Hanks.

Em um outro relatório divulgado em outubro, a Internet Watch Foundation (IWF), empresa de vigilância da Internet com sede no Reino Unido, relatou que encontrou mais de 20.254 imagens de abuso infantil em um único fórum da dark web em apenas um mês. A IWF alertou que a pornografia infantil gerada por IA poderia "sobrecarregar" a Internet.

Devido aos avanços na geração de imagens por IA, a IWF adverte que a distinção entre pornografia criada com deepfakes e com imagens autênticas se tornou mais difícil.

Em um relatório de 12 de junho, as Nações Unidas consideraram a mídia gerada por inteligência artificial uma ameaça "séria e urgente" à integridade das informações, especialmente nas redes sociais. Os negociadores do Parlamento e do Conselho Europeu na União Europeia chegaram a um acordo sobre as regras que regem o uso da IA na sexta-feira, 8 de dezembro.

LEIA MAIS