Direitos autorais e possíveis consequências de restrições ao treinamento de modelos de inteligência artificial (IA), como racismo algorítmico, estão no foco das preocupações de especialistas.
Conforme informou a Agência Câmara de Notícias, na última terça-feira (17) eles compareceram a um debate na comissão especial da Câmara dos Deputados, criada para tratar do Projeto de Lei (PL) 2223/2023, aprovado em dezembro pelo Senado, que trata da regulamentação da tecnologia no país.
Todos os problemas são agravados se tiver uma limitação no treinamento dos modelos de inteligência artificial, afirmou Luis Fernando Prado, líder do Comitê da IA Responsável e membro do Conselho Consultivo da Associação Brasileira de Inteligência Artificial (Abria).
Prado apontou como obstáculos, por exemplo, os artigos 62 a 66 da proposta, que tratam especificamente de direitos autorais. Ele avalia que os artigos inviabilizam o treinamento de IA no País.
A percepção que a gente vai ter se o sistema é ético, é seguro, se não é discriminatório, se respeita a Constituição, depende de quão bem treinado esse sistema foi. E, para isso, basicamente a gente vai precisar de uma diversidade de dados representativos, acrescentou.
Rodrigo Ferreira, assessor da Diretoria de Governança, Orçamento e Finanças da Casa da Moeda do Brasil, reforçou a importância do treinamento dos modelos e argumentou que o Brasil deve focar nos riscos, e não apenas na tecnologia.
A estratégia estabelecida pelo Congresso e pelo Executivo deve evitar conflitos, como, por exemplo, ter uma regulação que impeça o treinamento de modelos de IA com dados brasileiros, quando a estratégia for exatamente desenvolver modelos compatíveis com as características nacionais, pontuou.
Para Ferreira, a prevenção da discriminação algorítmica é um ponto chave da regulamentação, o que exige dados de treinamento que permitam reduzir preconceitos. Ele ressaltou que a legislação atual de proteção de dados, especialmente para dados sensíveis, traz limitações a esse uso.
O deputado Orlando Silva (PCdoB-SP) também demonstrou preocupação com o racismo algoritmo, “um tema supersensível”.
De verdade, a Lei Geral de Proteção de Dados Pessoais (LGPD) restringe o interesse legítimo se aplicado em dados sensíveis, mas se nós não temos o critério raça sendo aplicado ao treinamento de máquina, sim, nós podemos ter base para a operação, digamos assim, racista do algoritmo, observou.
Como exemplo, a deputada Fernanda Melchionna (Psol-RS) descreveu um caso em que, ao usar uma ferramenta de IA inspirada na Disney Pixar, uma usuária inseriu a descrição "mulher negra na favela" e a IA gerou a imagem de "uma mulher armada como se bandida fosse".
Esse não é um caso isolado, mas sim um reflexo da transferência de preconceitos sociais para o ambiente tecnológico, alertou.
Relator da comissão, o deputado Aguinaldo Ribeiro (PP-PB) adiantou que busca um texto que equilibre inovação e proteção.
A minha provocação aqui para todos é: como a gente pode afunilar no texto que está proposto, que é o Projeto de Lei 2338/23, essa questão de reduzir os riscos, preservar os direitos do cidadão e também permitir o máximo de inovação?, questionou.
Ambiente favorável
Representando empresas do setor, o diretor-executivo da Dharma.AI, Gabriel Renault, e o diretor de políticas da OpenAI para o Caribe e a América Latina, Nicolas Andrade, defenderam um ambiente regulado favorável como meio de atrair investimentos para o Brasil.
Investimentos, seja no treinamento de modelos, na abertura de pequenas e grandes empresas ou em infraestrutura (data centers), vão fluir na direção de países com ambientes regulatórios favoráveis, porque são [investimentos] de longo prazo e com custo altíssimo, ressaltou Andrade, da OpenAI, criadora do ChatGPT.
Para Renault, o País não deve focar apenas em grandes modelos de IA generativa ou em modelos internacionais, mas, sim, deve aproveitar a oportunidade para estimular modelos de IA especializados em português e em setores específicos, como o industrial.
Em relação ao projeto de lei do Senado, Andrade propôs as definições técnicas mais claras, distinguindo, por exemplo, um modelo de IA de um sistema.
É como falar em motor e carro. A regulação deve ser diferente, definiu.
Enquanto a Câmara dos Deputados debate os rumos regulatórios da tecnologia, o BNDES alcança R$ 1 bi em financiamento a projetos de IA em pouco mais de um ano, conforme noticiou o Cointelegraph Brasil.