A regulamentação da Inteligência Artificial (IA) no Brasil está travada no Senado Federal devido a impasses em torno de questões sensíveis de proteção e garantias aos direitos humanos.

Na terça-feira, 9 de julho, a votação do Projeto de Lei 2338/2023, que visa estabelecer diretrizes para o uso ético e seguro de sistemas de IA, mais uma vez foi inviabilizada por falta de consenso entre os parlamentares.

Em reunião da Comissão Temporária sobre Inteligência Artificial no Brasil (CTIA), os senadores decidiram adiar por tempo indeterminado a votação do relatório do senador Eduardo Gomes (PL-TO). 

Durante a sessão, o presidente da comissão, senador Carlos Viana (Podemos-MG), não estabeleceu uma data limite para apreciação do PL, afirmando que "não há pressa", e conclamou a Câmara dos Deputados a tomar parte na discussão:

"Nós vamos votar [o projeto], mas depois que nós tivermos esgotado a maior parte dos pontos polêmicos em relação ao projeto. Nós vamos deixar a votação para possivelmente depois das eleições municipais e esperamos também que a Câmara dos Deputados participe do processo para que essa peça saia daqui como consenso do Legislativo brasileiro."

Questões sensíveis da regulação de IA no Brasil

Inspirado na Lei de IA aprovada pela União Europeia, o PL 2338/2023 enfrenta críticas tanto por parte de empresas do setor de tecnologia quanto da sociedade civil.

Os empreendedores afirmam que as salvaguardas ao uso de IA previstas pelo PL impõem barreiras à inovação e podem colocar o Brasil em desvantagem competitiva em uma área fundamental para o desenvolvimento econômico no século 21.

Por sua vez, entidades e representantes de diversos setores, pedem a implementação de dispositivos eficazes de proteção aos direitos humanos e de propriedade intelectual diante dos avanços acelerados e imprevisíveis dos sistemas de IA.

Uso de dados biométricos

Um dos pontos mais controversos do PL 2338/2023 é a regulamentação do uso de dados biométricos dos cidadãos. A proposta atual permite exceções para o uso de sistemas de reconhecimento facial em espaços públicos, especialmente para segurança pública e persecução penal.

No entanto, uma carta aberta divulgada pela Coalizão Direitos na Rede na segunda-feira, 8 de julho, argumentou que essa prática viola direitos fundamentais dos cidadãos e pode reforçar discriminações estruturais, especialmente contra populações negras e mulheres.

A carta sugere a exclusão das exceções ao uso de dados biométricos, ou, no mínimo, a implementação de uma moratória que permita esse tipo de uso somente após a aprovação de uma lei federal específica que garanta salvaguardas adequadas.

Sistemas de Classificação de Crédito

Outro ponto de discórdia é a aplicação de sistemas de IA para avaliar o risco de crédito de pessoas físicas. Na versão atual do PL, esses sistemas não são classificados como de alto risco, contrariando os defensores dos direitos digitais.

A reclassificação desses sistemas como de alto risco garantiria uma regulamentação mais rigorosa para evitar práticas discriminatórias que possam impactar negativamente a vida financeira dos indivíduos. 

A única exceção cabível, de acordo com a carta da Coalizão, seria o uso de sistemas de sistemas de IA para detectar fraudes financeiras.

Sistemas de armas autônomas

Embora a versão atual do PL 2.338/2023 proíba integralmente o desenvolvimento, produção e uso de sistemas de armas autônomas no território brasileiro, as entidades da sociedade civil recomendam a inclusão de dispositivos adicionais para garantir a integridade dos cidadãos e minimizar possíveis erros fatais.

Segundo a Coalizão, o PL deve incluir definições claras e abrangentes sobre o que constitui um sistema de armas autônomas, para evitar ambiguidades que possam ser exploradas para contornar a proibição. Também é preciso incluir sanções rigorosas para indivíduos e entidades que violarem a proibição, incluindo penalidades financeiras e criminais.

Por fim, para que a vedação a sistemas de armas autônomas seja eficaz sugere-se que o Brasil colabore com organizações internacionais e outros países para instituir a proibição global de sistemas de armas autônomas, em benefício da paz e da segurança internacional.

Controle das Redes Sociais

Com o arquivamento do Projeto de Lei 2.338/2023, mais conhecido como PL das Fake News, dispositivos para controle das redes sociais foram inseridos na lei que regulamenta a IA. 

O artigo 14, inciso 13 qualifica como de alto risco – e, portanto, passível de fiscalização e punição pelas autoridades públicas – as recomendações de conteúdo dos algoritmos de plataformas de rede social em uma tentativa de conter a disseminação de notícias e conteúdos falsos.

Os sistemas de IA generativa adicionam à equação a facilidade de produção e manipulação de conteúdo falso em texto, áudio e vídeo. Segundo especialistas em direito digital, é imperativo que as responsabilidades sejam compartilhadas entre as plataformas de rede social e os provedores de sistemas de IA. 

A Coalizão Direitos na Rede defende a necessidade de uma avaliação preliminar dos sistemas de IA para verificar seu grau de risco. Esta diretriz constava do artigo 8º da versão do PL publicada em 18 de junho de 2024, mas foi excluída pelo relator.

Na carta, a coalizão pede que ele seja incluído novamente na versão final do projeto. No entanto, há preocupações de que as medidas propostas pelo artigo possam ser interpretadas como censura, causando um dos principais impasses a serem solucionados para a aprovação do PL 2338/2023, pois vai de encontro ao interesse das gigantes globais do setor de tecnologia.

"Há muita polêmica em relação a vários temas", admitiu o presidente da CTIA, ao justificar mais uma vez o adiamento da votação do PL.

O PL que regulamenta a IA no Brasil foi originalmente apresentado pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), em junho de 2022. Em funcionamento desde agosto do ano passado, a CTIA já promoveu treze audiências públicas para debater o tema, conforme noticiado pelo Cointelegraph Brasil.