O Plano Brasileiro de Inteligência Artificial (PBIA) de R$ 23 bilhões do governo federal deve enfrentar dificuldades para sair do papel caso o Projeto de Lei 2.338/2023, que estabelece parâmetros para regulação do setor, seja aprovado pelo Congresso Nacional, segundo um estudo do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio).

Segundo o estudo coordenado por Carlos Carlos Affonso Souza, sócio da Rennó Penteado Sampaio Advogados, e Ronaldo Lemos, advogado especialista em tecnologia, mídia e propriedade intelectual, a regulamentação impõe freios excessivos à inovação, gerando impacto direto em startups, empresas e serviços públicos.

Mais da metade das ações previstas no PBIA poderá ser inviabilizada pelas exigências de mitigação de risco do PL da IA, atualmente em debate na Câmara dos Deputados.

Regulamentação excessiva impõe freios à inovação

O estudo avaliou a viabilidade de cada uma das linhas de ação do PBIA dentro das limitações impostas pelo PL da IA. As barreiras à implementação do plano foram classificadas em diferentes categorias, considerando aspectos técnicos, legais, econômicos e sociais.

Entre as barreiras técnicas e legais, o estudo destaca o elevado número de obrigações impostas a projetos que utilizam inteligência artificial. O PL estipula um total de 68 obrigações regulatórias, sendo 14 para qualquer tecnologia baseada em IA, 31 para aplicações classificadas como de alto risco, 9 para IA generativa e 14 obrigações adicionais para o uso de IA na administração pública.

O ITS-Rio constatou que, das 37 ações previstas no Plano Brasileiro de IA (PBIA), 20 estariam enquadradas como de alto risco – 14 teriam de atender a 59 exigências, enquanto seis seriam submetidas a todas as 68 obrigações previstas no PL da IA.

No âmbito econômico, a análise aponta que a necessidade de cumprir múltiplas obrigações pode representar um obstáculo significativo para pequenas e médias empresas.

Segundo Celina Bottino, diretora do ITS-Rio, o acúmulo de exigências técnicas e jurídicas pode elevar os custos e a complexidade de tirar ideias inovadoras do papel, desencorajando empreendedores e, potencialmente, empurrando empresas e desenvolvedores para fora do país:

“São tantos obstáculos e barreiras antes de saber se a ideia é viável que os empreendedores brasileiros podem acabar indo para fora. E, considerando o setor público, há 14 obrigações adicionais. Isso pode fazer com que a inovação vinda dele demore mais ou seja sufocada antes de chegar a áreas prioritárias.”

Como exemplo, o relatório menciona iniciativas do PBIA na área da saúde, como o "prontuário falado no SUS" e o programa "Idoso Bem Cuidado no SUS." O PL estabelece que qualquer caso de uso relacionado à saúde deve ser qualificado como de alto risco e necessariamente deve atender a 68 obrigações distintas.

Outro exemplo envolve a aplicação de IA em atendimento a cidadãos no exterior, cujo desenvolvimento estaria sujeito a 37 obrigações combinadas: 14 por usar IA, 9 por ter IA generativa e 14 por ser executada pelo setor público.

A análise também levantou questões de natureza social, destacando a possibilidade de atrasos ou sufocamento de inovações em áreas sensíveis, como saúde e educação, devido à aplicação uniforme de regras pesadas a diferentes casos de uso de inteligência artificial.

O estudo argumenta que falta granularidade na avaliação de riscos, uma vez que o PL da IA estabelece as mesmas regras para casos de complexidade e impacto distintos. “Por exemplo: IA para fazer transcrição de teleconsulta deveria ter o mesmo risco de uma IA para diagnóstico?", questiona Bottino.

O ITS-Rio conclui que essas barreiras podem dificultar a implementação e a eficácia do PL da IA, tanto no setor público quanto privado, ao criar obstáculos burocráticos e financeiros que impactam o ritmo e o potencial de inovação. Além disso, o estudo aponta que o PBIA não prevê recursos específicos para lidar com os custos adicionais impostos pelas obrigações regulatórias, o que pode agravar os desafios enfrentados na adoção e desenvolvimento de tecnologias de inteligência artificial no Brasil.

Governo contesta conclusões e metodologia do estudo

Representantes do governo federal afirmam que o texto atual do PL da IA não cria barreiras significativas ao plano do governo. João Brant, titular de Políticas Digitais da Secretaria de Comunicação da Presidência da República, declarou ao UOL que a avaliação da regulação não deve se basear na quantidade de obrigações previstas, mas sim na qualidade e no propósito dessas exigências, ressaltando que obrigações como a prevenção de discriminação representam garantias essenciais e não entraves à inovação. Brant também fez ressalvas à metodologia do estudo:

“O estudo utiliza premissas metodológicas que somam obrigações de agentes distintos, considera de alto risco casos que não se enquadram nessa categoria e classifica como IA generativa operações ainda não previstas em lei.”

Por outro lado, entidades do setor privado e especialistas em tecnologia sugerem que a desconexão entre o PBIA e a regulamentação pode, de fato, comprometer o dinamismo da inovação no setor.

Durante o evento “Bootcamp de IA Generativa na Prática”, promovido pela OpenAI, em Brasília, Josiara Diniz, gerente de políticas públicas da empresa, ressaltou que a legislação deve considerar as especificidades linguísticas, sociais e culturais do Brasil, sob risco de se tornar um fator limitante para o crescimento do setor:

“Se o país quer se posicionar como referência em IA, não pode adotar uma legislação que desconsidere essa diversidade, ou teremos um entrave para o desenvolvimento.”

Conforme noticiado pelo Cointelegraph Brasil, o PBIA prevê a criação de um supercomputador com capacidade de processamento de 5,1 petaflops/s (5,1 quatrilhões de operações matemáticas por segundo), um sistema de computação em nuvem alimentado por dados públicos e um modelo de linguagem grande (LLM) que utilize o português como língua nativa.