Em uma manifestação pública na semana passada, o presidente Luiz Inácio Lula da Silva (PT) desafiou os cientistas brasileiros a apresentarem "um produto de inteligência artificial em língua portuguesa", ressaltando a urgência e a importância da tecnologia para o desenvolvimento econômico e o futuro do país.

No entanto, a ambição do presidente deve encontrar um obstáculo significativo no Projeto de Lei 2.338/2023, cuja versão atualizada foi divulgada em 7 de junho pelo relator da proposta, o senador Eduardo Gomes (PL-TO). Segundo um relatório publicado pelo Instituto de Tecnologia e Sociedade (ITS) em abril e atualizado após a apresentação do texto revisado, o ônus regulatório estabelecido pelo PL é maior que aquele estabelecido pela Lei de IA da União Europeia (UE), no qual é abertamente inspirado. 

Há 69 obrigações no PL 2.338/2023 contra 39 da lei europeia e uma distribuição horizontal de responsabilidades entre todos os agentes da cadeia de produção de IA, enquanto o marco europeu adota uma estratégia mais assertiva, estabelecendo obrigações para atores específicos. 

O relatório do ITS estabelece três categorias de uso de IA – qualquer uso, uso de alto-risco e IA generativa – cujas obrigações responsabilidades são atribuídas a três agentes principais da cadeia de produção existentes no Brasil – desenvolvedor, aplicador e fornecedor. 

Na lei europeia, poucas obrigações se aplicam a todos os agentes. O mais comum é a imposição de obrigações aos desenvolvedores (38 das 39 obrigações), seguido por obrigações atribuídas ao distribuidor (12 de 39). 

Ao adotar a definição de "agentes da inteligência artificial", o PL 2.338/2023 impõe 56 obrigações – de um total de 69 – aos três atores (fornecedor, aplicador e distribuidor). Além disso, a proposta brasileira estabelece parâmetros para casos de uso de IA no setor público, uma categoria ausente na lei europeia. Das 69 obrigações estabelecidas pelo marco regulatório brasileiro, apenas 13 encontram paralelo com a Lei de IA da UE.

PL 2.338/2023 segue Lei de IA da UE

O relatório do ITS reforça que há uma série de pontos em comum entre os marcos regulatórios europeu e brasileiro, especialmente no que diz respeito às obrigações gerais impostas a sistemas de IA de alto risco. Ambas propostas exigem a indicação de um órgão encarregado da governança do setor, documentação detalhada sobre o funcionamento dos sistemas e o uso de registros automáticos de dados. 

Além disso, ambos requerem avaliações de impacto algorítmico e a comunicação de riscos ou impactos inesperados, demonstrando um compromisso com a mitigação de riscos imprevisíveis e a proteção dos direitos fundamentais dos cidadãos.

Apesar da lista de obrigações menos extensa, a Lei de IA da UE inclui dispositivos que não são abordados pela propsta brasileira, como requisitos detalhados para identificação de conjuntos de dados de treinamento, validação e teste, e a manutenção de logs gerados automaticamente.

Obrigações exclusivas do marco regulatório brasileiro

O PL 2.338/2023 impõe uma série de obrigações exclusivas que não encontram paralelo na Lei Europeia, especialmente no contexto do setor público. Entre essas obrigações há a necessidade de realizar consultas públicas antes da implementação de soluções de IA, a definição de protocolos de acesso, e a facilitação do direito à explicação do funcionamento dos sistemas para os usuários finais. 

Ao mesmo tempo que a obrigação de facilitar o direito à explicação resulta em maior transparência, também exige que as empresas desenvolvam interfaces e sistemas para atender a eventuais demandas dos consumidores, potencialmente infringindo os direitos de propriedade intelectual das empresas que optam por sistemas de código fechado para implementar seus sistemas de IA.

A proposta brasileira exige também a publicação de análises preliminares para sistemas de IA de alto risco, a descontinuação de uso em caso de riscos não mitigáveis, e a adequação de iniciativas já em uso, resultando em uma abordagem mais rigorosa para a governança de IA.

Outro obstáculo imposto pela proposta brasileira é a obrigação de adequação de sistemas de IA já em uso às diretrizes do PL 2.338/2023. Na prática, as empresas terão que revisar e modificar sistemas existentes para atender às exigências regulatórias ou, em última instância, abrir mão de prestar serviços no país. 

Consulta pública alternativa

Em abril, o ITS havia publicado um outro estudo mostrando que a maioria dos países não seguiu as normas do marco regulatório pioneiro da UE e optaram por adotar modelos alternativos. Segundo João Victor Achegas, os relatórios publicados pelo ITS evidenciam que "não podemos adotar um ou outro modelo como paradigmático quando nenhuma solução regulatória foi de fato testada na prática."

Em uma iniciativa para ampliar o debate sobre a regulação de IA no Brasil, o Conselho de Inteligência Artificial e Sociedade (CIAS), uma iniciativa do ITS  em parceria com a Abranet, lançou uma plataforma de consulta pública para receber ideias e opiniões da população sobre o tema. 

No entanto, é provável que a a tramitação do marco regulatório de IA avance no Congresso Nacional. Conforme noticiado pelo Cointelegraph Brasil recentemente, o relatório deve ser votado na Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) do Senado Federal nesta semana.