O presidente dos Estados Unidos, Donald Trump, assinou um projeto de lei que criminaliza a pornografia deepfake gerada por inteligência artificial sem consentimento, exigindo ainda que sites retirem as imagens ilícitas em até 48 horas.

Trump sancionou a lei em 19 de maio, chamada de TAKE IT DOWN Act, sigla para Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks (Ferramentas para Combater Exploração Conhecida por Meio da Imobilização de Deepfakes Tecnológicos em Sites e Redes).

O projeto, apoiado pela primeira-dama Melania Trump, torna crime federal publicar ou ameaçar publicar imagens íntimas não consensuais — incluindo deepfakes — de adultos ou menores com a intenção de causar dano ou assédio. As penalidades variam de multas até prisão.

Technology, United States, White House, Donald Trump
Fonte: Melania Trump

Sites, serviços online ou aplicativos devem remover o conteúdo ilegal em até 48 horas e implementar um processo de remoção.

Em discurso feito no Jardim das Rosas da Casa Branca, divulgado na rede social Truth Social, Trump afirmou que a lei também abrange “falsificações geradas por inteligência artificial”, popularmente conhecidas como deepfakes.

Melania Trump fez lobby direto junto aos parlamentares para apoiar o projeto e afirmou, em comunicado, que a nova legislação representa uma “vitória nacional”.

“A inteligência artificial e as redes sociais são os doces digitais da próxima geração — doces, viciantes e projetados para impactar o desenvolvimento cognitivo de nossas crianças”, disse ela.

“Mas, ao contrário do açúcar, essas novas tecnologias podem ser armadas, moldar crenças e, infelizmente, afetar emoções e até serem letais”, completou.

O projeto foi apresentado em junho de 2024 pelos senadores Ted Cruz e Amy Klobuchar, sendo aprovado pelas duas casas do Congresso em abril deste ano.

EUA são os mais recentes a proibir deepfakes explícitos

Casos envolvendo o uso de deepfakes para fins prejudiciais têm crescido. Um dos exemplos mais notórios envolveu imagens ilícitas geradas por deepfake da cantora pop Taylor Swift, que se espalharam rapidamente pelo X em janeiro de 2024.

O X chegou a banir temporariamente buscas pelo nome da artista, enquanto parlamentares pressionavam por uma legislação que criminalizasse a produção dessas imagens.

Outros países, como o Reino Unido, já tornaram ilegal o compartilhamento de pornografia deepfake por meio da Lei de Segurança Online do país, aprovada em 2023.

Um relatório de 2023 da startup de segurança Security Hero revelou que a maioria dos deepfakes publicados na internet tem conteúdo pornográfico — e 99% das pessoas visadas por esse tipo de material são mulheres.