Um relatório publicado pelo Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio) revelou que 35% dos sistemas de inteligência artificial (IA) implementados no Brasil podem ser considerados de "alto risco."
O relatório "100 IA: PL 2.338/2023 e a classificação de risco dos usos de IA sob uma perspectiva prática" investigou 110 iniciativas de inteligência artificial em diferentes setores e descobriu que 38 são potencialmente consideradas como de “alto risco”, nos termos do Projeto de Lei nº 2.338/2023. Atualmente em tramitação no Congresso, o PL visa regular o uso de IA no Brasil.
Um relatório similar realizado na União Europeia, que, inclusive, serviu de base teórica e metodológica para o estudo do ITS-Rio, revelou que no contexto europeu 18% dos sistemas se enquadram na categoria de "alto risco", segundo os parâmetros da Lei de IA da UE.
- IA no governo: Reeleito no Rio, Eduardo Paes pretende acelerar uso da tecnologia na gestão municipal
Casos de uso de IA no Brasil
O relatório do ITS-Rio identificou cinco principais setores que têm adotado iniciativas de IA no Brasil, com saúde, agronegócio e educação representando 83% do total. A seguir vêm os setores financeiro/bancário (7,3%), judiciário (6,4%) e outros (3,6%).
Percentual da amostragem de aplicações de IA implementadas no Brasil. Fonte: ITS-Rio
Os casos de uso de IA na Saúde concentram 41,8% das aplicações de IA compreendidas pelo estudo. Via de regra, segundo o PL 2.338/2023, o uso de sistemas de IA na Saúde deve ser considerado uma prática de "alto risco." Especialmente, iniciativas que visam "auxiliar em diagnósticos e procedimentos médicos, quando houver risco relevante à integridade física e mental dos pacientes."
Ao identificar cinco subsetores que concentram a maioria das aplicações, o relatório revelou que, na prática, a maioria dos casos de uso não estão claramente definidos no PL 2.338/2023.
O uso de IA para monitoramento de pacientes, gestão de dados clínicos, tratamento de doenças e assistência para médicos em geral não são endereçados pelo projeto de lei, "indicando uma fonte potencial de insegurança jurídica, visto que o regramento proposto não permite claro paralelo com a realidade do mercado", conclui o relatório.
Compreendendo 24,5% das aplicações investigadas no estudo, as iniciativas de uso de IA no agronegócio são majoritariamente consideradas de risco residual.
Ainda assim, segundo o relatório, pode haver significativas implicações jurídicas relativas ao uso de IA no setor, porque o PL 2.338/2023 não contempla os casos de uso práticos identificados pelo ITS-Rio: monitoramento de condições do solo e pragas, análise de dados para otimização da produção agrícola e uso de drones para coleta de imagens aéreas e análise de dados.
Por fim, iniciativas voltadas para a educação representam 16,4% das aplicações identificadas pelo relatório, incluindo a personalização de metodologias de ensino e aprendizado, o engajamento dos alunos e o auxílio na formulação de materiais e nas atividades dos professores.
Ao qualificar como de "alto risco" o uso de IA para "educação, formação profissional, determinação de acesso a instituições de ensino ou de formação profissional ou para avaliação e monitoramento de estudante", mais uma vez o PL 2.338/2023 não contempla a "diversidade de aplicações encontradas nesta área", afirma o relatório.
O ITS-Rio conclui que a regulamentação baseada em classificação de risco proposta pelo PL 2.338/2023 adota uma abordagem excessivamente rígida, que não reflete a realidade do mercado brasileiro.
O fato de 35% das aplicações práticas catalogadas pelo relatório se enquadrarem como casos de uso de "alto risco", nos termos do projeto de lei que regulamenta a IA no Brasil, dá margem à insegurança jurídica tanto para desenvolvedores quanto para usuários, e prejudica a inovação.
À medida que a tramitação do PL 2.338/2023 se arrasta no Congresso Nacional, o relatório defende que o Brasil adote uma abordagem mais flexível e adaptável, mais independente da legislação da UE e mais inspirada na regulação adotada no Reino Unido e no Japão.
O modelo adotado pelo Reino Unido prevê o intercâmbio contínuo entre os provedores de serviços de IA e as agências regulatórias setoriais para definir as gradações de risco de cada aplicação em função de suas aplicações práticas.
Já o Japão optou por uma regulação baseada na "governança ágil." "O processo envolve a análise de contexto e riscos, como também a definição de objetivos estratégicos, design de sistemas, operacionalização e avaliação dos resultados do sistema de governança por uma frente multissetorial", explica o relatório.
Conforme noticiado pelo Cointelegraph Brasil, obrigações excessivas, ambiguidades e debates insuficientes podem prejudicar o desenvolvimento da IA no Brasil.