O Projeto de Lei 2.338/2023, que regula a inteligência artificial (IA) no Brasil, foi aprovado em votação simbólica no Senado Federal na terça-feira, 10 de dezembro, sob protestos e tentativas da bancada de oposição ao governo federal de adiar a votação.

O texto aprovado agora segue para apreciação na Câmara dos Deputados, onde deve enfrentar resistência renovada do lobby das Big Techs em aliança com a bancada oposicionista.

Senadores do PL tentaram, novamente, adiar a votação apresentando emendas de última hora que isentam as empresas do ônus pelo uso de material protegido por direitos autorais em sistemas de treinamento de IA.

Em notas divulgadas anteriormente, as empresas de IA declararam que a cobrança de direitos autorais conforme determinada pelo projeto “pode inviabilizar o desenvolvimento da IA no Brasil.”

As empresas defendem que o conteúdo público disponibilizado na internet pode ser usado para treinar modelos de IA sem remuneração aos autores, a menos que os detentores dos respectivos direitos declarem formalmente a proibição ao uso.

Autor do PL e presidente do Senado, Rodrigo Pacheco (PSD-MG) vetou todas as emendas apresentadas pela oposição e rejeitou o pedido do senador Eduardo Girão (PL-CE) para que a votação fosse novamente adiada, atendendo aos pedidos das empresas de tecnologia por uma nova audiência pública para discussão do projeto.

Pacheco indeferiu o pedido, argumentando que o PL está em discussão desde março de 2022, quando foi analisado por uma comissão de juristas, e já foi submetido a 12 audiências públicas e 14 audiências no âmbito da Comissão Temporária Interna sobre Inteligência Artificial do Brasil (CTIA).

Ao votar contra a aprovação do projeto, Girão afirmou que o texto em sua forma atual “amplia o controle estatal, sufoca a inovação e abre brechas para censura.”

Vitórias das Big Techs

Apesar dos protestos, as Big Techs tiveram algumas de suas demandas atendidas pelos senadores, com aval do governo federal.

O conceito de integridade da informação foi retirado do texto aprovado sob a justificativa de que poderia ser usado pelos reguladores para moderação de conteúdo e eventuais violações da liberdade de expressão.

As plataformas de rede social foram excluídas da categoria de sistemas de IA de alto risco nos termos da lei.

O PL determina que os sistemas de IA de alto risco devem ser submetidos à avaliação, testem potenciais vieses e preconceitos e deem aos usuários o direito à revisão humana das decisões.

Entraram no rol de sistemas de IA de alto risco aplicações utilizadas no controle do trânsito, seleção de estudantes em instituições de ensino, contratação e promoção de funcionários e gestão da imigração e das fronteiras nacionais.

Conforme noticiado recentemente pelo Cointelegraph Brasil, um relatório publicado pelo Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio) revelou que 35% dos sistemas de inteligência artificial implementados no Brasil podem ser considerados de alto risco.

O relatório "100 IA: PL 2.338/2023 e a classificação de risco dos usos de IA sob uma perspectiva prática" investigou 110 iniciativas de inteligência artificial em diferentes setores e descobriu que 38 são potencialmente consideradas como de “alto risco”, nos termos do PL 2.338/2023.