A Autoridade Nacional de Proteção de Dados (ANPD), autarquia federal ligada ao Ministério da Justiça e Segurança, decidiu suspender o uso de dados pessoais publicados em plataformas da empresa Meta, como Facebook, Instagram e WhatsApp, que sejam voltados ao treinamento de sistemas de inteligência artificial (IA). 

A medida cautelar foi aprovada pelo conselho decisório da ANPD e publicada por meio do Despacho Decisório 20/2024 na última terça-feira (2) no Diário Oficial da União (DOU). O que inclui uma multa diária de R$ 50 mil em caso de descumprimento.

O posicionamento do governo aconteceu após entrar em vigor, no dia 26 de junho, uma nova política de privacidade da Meta, abrangendo suas plataformas de rede social. Documento que autoriza a utilização de conteúdos compartilhados pelos usuários e disponíveis publicamente para o treinamento de IA generativa.

“Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos”, informou a ANPD em nota. 

O órgão argumentou que a utilização de dados pessoas de crianças e adolescentes para treinar sistemas de IA da Meta, informações que estão sujeitas a proteção especial da Lei Geral de Proteção de Dados (LGPD).

A agência informou que decidiu por inciativa própria fiscalizar a aplicação da nova política da Meta, e disse ter constatado “riscos de dano grave e de difícil reparação aos usuários”, diante do que considerou ser indício de violação da LGPD.

“A ANPD avaliou que a empresa não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa”, acrescentou o órgão.

Segundo informações da Agência Brasil, a ANPD mencionou ainda que “obstáculos excessivos e não justificados” para que o usuário possa passar a se opor a esse tipo de tratamento de seus dados pessoais. De acordo com a ANPD, os usuários das plataformas da Meta compartilharam dados pessoais com a expectativa de se relacionar com “amigos, comunidade próxima e empresas de interesse”, sem considerar que as informações pudessem ser usadas no treinamento de IA.

Em posicionamento enviado por e-mail, a Meta disse estar “desapontada com a decisão da ANPD”. A empresa acrescentou que não é a única a promover treinamento de IA com informações coletadas pelos serviços prestados e que “somos mais transparentes do que muitos participantes nessa indústria que tem usado conteúdos públicos para treinar seus modelos e produtos”.

“Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competitividade no desenvolvimento de IA e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, afirmou a empresa.

Esta semana, o Senado decidiu marcar para o dia 9 de julho a votação do relatório do Marco Legal da IA no país, conforme noticiou o Cointelegraph Brasil.