O Conselho Nacional de Justiça (CNJ) divulgou esta semana a minuta de uma resolução normativa para uso da inteligência artificial (IA) no Poder Judiciário, documento que está previsto para ser analisado em plenário ainda este mês.
Segundo informações do CNJ, o texto traz orientações para o desenvolvimento, a auditoria, o monitoramento e o uso responsável de IA. Entre os pressupostos estabelecidos está a informação ao usuário quando houver o uso dessas soluções em processos e decisões, além da aplicação de linguagem simples nessas comunicações, de acordo com as diretrizes da gestão do presidente do CNJ e do Supremo Tribunal Federal (STF), Luís Roberto Barroso.
O objetivo da regulamentação é assegurar os direitos fundamentais dos cidadãos e cidadãs que acessam o Judiciário, promovendo a inovação tecnológica e a eficiência dos serviços judiciários de modo seguro, transparente, isonômico e ético e preservando a autonomia dos tribunais. A minuta do normativo é fruto das discussões realizadas ao longo de um ano pelo GT instituído pela Portaria 338/2023, coordenado pelo conselheiro Luiz Fernando Bandeira de Mello Filho.
Segundo o levantamento divulgado em setembro durante uma audiência pública do CNJ, quase metade dos servidores e magistrados que respondeu o diagnóstico usa a ferramenta nos tribunais. Entretanto, mais de 70% dos participantes, em ambos os grupos, informaram que a utilizam “raramente” ou “eventualmente”. Apesar de ser pouco utilizada, entre os que lançam mão da ferramenta, há um considerável uso para atividades do tribunal (27% dos magistrados e 31% dos servidores fazem uso na vida profissional).
O parágrafo primeiro, por exemplo, estabelece que “a governança das soluções de inteligência artificial deverá respeitar a autonomia dos tribunais, permitindo o desenvolvimento e a implementação de soluções inovadoras locais, ajustando-se aos contextos específicos de cada tribunal, desde que observados os padrões de auditoria, monitoramento e transparência definidos por esta Resolução”.
O artigo sétimo também chama a atenção ao definir que “os dados utilizados no desenvolvimento ou treinamento de modelos de inteligência artificial devem ser representativos de casos judiciais e observar as cautelas necessárias quanto ao segredo de justiça e à proteção de dados pessoais, nos termos da Lei Geral de Proteção de Dados Pessoais (LGPD)”.
O capítulo terceiro do documento é focado na categorização dos riscos da IA. Nesse caso, a minuta prevê algumas vedações ao uso da tecnologia no artigo décimo, relacionadas a casos de risco excessivo à segurança da informação, aos direitos fundamentais dos cidadãos ou à independência dos magistrados, em que a IA não permita, por exemplo, “a revisão humana dos dados utilizados e dos resultados propostos ao longo de seu ciclo de treinamento, desenvolvimento e uso, ou que gerem dependência absoluta do usuário em relação ao resultado proposto, sem possibilidade de alteração ou revisão”.
Outra proibição diz respeito a casos que “valorem traços da personalidade, características ou comportamentos de pessoas naturais ou de grupos de pessoas naturais, para fins de avaliar ou prever o cometimento de crimes ou a probabilidade de reiteração delitiva na fundamentação de decisões judiciais”.
Recentemente o Tribunal de Justiça de São Paulo (TJSP) negou um recurso de um advogado que tentava anular uma sentença desfavorável à cliente dele, sob a alegação de que a decisão teria “média a grande” probabilidade de ter sido proferida através de inteligência artificial, conforme noticiou o Cointelegraph Brasil.