Uma nova versão do Projeto de Lei 2.338/23, que regulamenta a inteligência artificial (IA) no Brasil, será apresentada à Comissão Temporária de Inteligência Artificial (CTIA) do Senado nesta quinta-feira, 28, com alterações que restringem as salvaguardas contra os riscos potenciais dos sistemas de IA.

O texto modificado teria sido chancelado pelos ministérios da Casa Civil, Fazenda e Desenvolvimento, Comércio, Indústria e Serviços, cedendo ao lobby das grandes empresas do setor e da Confederação Nacional da Indústria (CNI), sob o argumento de que o marco regulatório impõe barreiras à inovação.

O movimento contraria a agenda pessoal do presidente Luiz Inácio Lula da Silva (PT), que vem defendendo a construção de sistemas de governança que garantam uma “IA segura, transparente e emancipadora.”

Em seu discurso na Cúpula do G20 em 18 de novembro, o presidente reiterou sua opinião de que é fundamental que os sistemas de IA respeitem os direitos humanos, protejam dados pessoais e promovam a integridade da informação.

Apenas IAs de alto risco entram no escopo da regulamentação

As alterações propostas no relatório do senador Eduardo Gomes (PL-TO) flexibilizam os parâmetros de classificação de risco de IA. A nova versão do PL propõe a limitação das obrigações e penalidades previstas no marco regulatório a sistemas de IA de alto risco.

O texto também exclui da categoria de alto risco os sistemas automatizados de moderação e recomendação de conteúdos de plataformas de redes sociais.

Um relatório publicado pelo Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio) revelou que 35% dos sistemas de inteligência artificial implementados no Brasil podem ser considerados de alto risco.

O relatório "100 IA: PL 2.338/2023 e a classificação de risco dos usos de IA sob uma perspectiva prática" investigou 110 iniciativas de inteligência artificial em diferentes setores e descobriu que 38 são potencialmente consideradas como de “alto risco”, nos termos da versão anterior do PL 2.338/2023.

Os casos de uso de IA analisados pelo relatório que oferecem maiores riscos aos usuários estão relacionados aos setores de saúdeagronegócioeducação, financeiro e jurídico.

A versão anterior do projeto estabelecia que todos os sistemas de IA deveriam ser classificados em função de diferentes níveis de risco, com limites, obrigações e penalidades correspondentes a cada um deles.

A classificação de risco de sistemas de IA ficaria a cargo do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), um órgão a ser criado futuramente no âmbito da administração federal.

A nova versão do PL estabelece um rol taxativo e não exemplificativo de IAs de alto risco. Na prática, apenas os sistemas de IA citados no relatório aprovado pelo Congresso Nacional seriam classificados como de alto risco, excluindo futuros sistemas do escopo da regulamentação.

Em um setor dinâmico e em evolução acelerada, o marco regulatório já nasceria defasado, segundo Jonas Valente, pesquisador do Instituto de Internet de Oxford e integrante do Diracom - Direito à Comunicação e Democracia, e Helena Martins, professora da Universidade Federal do Ceará (UFC) e integrante do Diracom - Direito à Comunicação e Democracia.

A tramitação do PL 2.338/2023 no Senado tem sido marcada por uma intensa guerra de bastidores. De um lado, a sociedade civil e entidades de proteção de direitos dos cidadãos; de outro, as grandes empresas do setor de tecnologia.

Os principais pontos de discórdia no marco regulatório em discussão incluem o uso de dados biométricos, armas autônomas e o controle das redes sociais, como noticiado pelo Cointelegraph Brasil.