A Comissão Temporária Interna sobre Inteligência Artificial do Brasil (CTIA) no Senado aprovou nesta quinta-feira (5) o Projeto Lei (PL) 2.338/2023, que prevê a regulamentação da inteligência artificial (IA) no Brasil. O texto ainda precisa ser aprovado pelo plenário e, em caso de aprovação, pela Câmara dos Deputados.
A aprovação foi simbólica, já que os senadores entraram em acordo sobre alguns pontos polêmicos que travaram a votação na última terça-feira (3), em meio a protestos e chancela concedida as big techs, que acabaram favorecidas pela supressão de um trecho que considerava como sendo de alto risco os sistemas de IA usados por essas plataformas digitais para produção, análise, recomendação e distribuição de conteúdos.
De autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), o projeto sofreu diversas modificações nos últimos dias pelo relator, Eduardo Gomes (PL), por pressão da bancada de extrema-direita e grandes empresas de tecnologia. No primeiro caso, os parlamentares alegaram que o texto original feria a liberdade de expressão.
“Acreditamos que a sociedade brasileira dará um basta à irresponsabilidade no uso indevido das informações em ambiente digital e defenderá firmemente o respeito aos direitos daqueles que transformam as durezas e desafios de nossas vidas em arte criativa em qualquer meio tecnológico”, disse o presidente da CTIA, senador Carlos Viana (Podemos-MG).
A proposta prevê a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), para exercer a governança da IA no país ficará sob a coordenação da Autoridade Nacional de Proteção de Dados (ANPD).
Proibições e alto risco
De acordo com o texto aprovado, as empresas não podem minerar conteúdo protegido para treinamento de IA, a menos que haja remuneração aos detentores dos conteúdos, cujo cálculo de obedecer aos “princípios da razoabilidade e proporcionalidade”. Por outro lado, o projeto isenta as empresas de ofensa aos direitos autorais em caso de utilização de conteúdo protegido, caso a ferramenta de IA seja direcionada para instituições científicas e de pesquisa, além de museus, arquivos públicos e bibliotecas, desde que não tenham fins lucrativos.
Em relação às proibições de uso de IA estão a criação de material voltado ao abuso e exploração sexual, exploração de vulnerabilidades de usuários, indução de pessoas ou grupos a comportamentos que causem danos à saúde, segurança ou outros direitos fundamentais das pessoas e de terceiro. Nesse caso, também está proibido o uso de IA para desenvolvimento de arma autônoma, incluindo disseminação a alvos sem intervenção humana.
No que se refere a investigações, a menos que haja autorização judicial ou quando não houver alternativa, o uso de IA em investigações é considerado uma arma autônoma, segundo a proposta aprovada.
No caso de descumprimento, entre as penalidades estão o pagamento de multa de até R$ 50 milhões ou o equivalente ao 2% do faturamento tootal da empresa por cada violação cometida, além da publicação da infração, após confirmação do ocorrido, e suspensão da ferramenta de IA desenvolvida, parcial ou tota, temporária ou definitiva.
O projeto aprovado estabelece algumas situações classificadas como alto risco. Entre elas a gestão de imigração e controle de fronteiras diagnósticos e procedimentos médicos; controle de trânsito e abastecimento de água e eletricidade; seleção de estudantes para ingresso em instituições de ensino; acesso, elegibilidade, concessão, revisão e revogação de serviços públicos ou privados considerados essenciais.
No rol das críticas ao projeto, que diferencia as startups em micro e pequenas empresas, está a possibilidade de aumento do custo econômico na IA no país, por causa da regulamentação.
Esta semana, o relatório Cisco AI Readiness Index 2024 apontou que 98% das organizações no país estão em processo de implementação ou desenvolvimento de uma estratégia de IA, mas que a adoção esbarra em limitações de infraestrutura, conforme noticiou o Cointelegraph Brasil.