A inteligência artificial (IA) está no centro dos holofotes da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco). Já que a tecnologia tem o potencial de ampliar a desinformação, que figura como principal risco global para 2025 e para próximos anos.

Essa é a análise do diretor-geral adjunto de Comunicação e Informação da entidade, Tawfik Jelassi. Em entrevista publicada esta semana pela Agência Brasil, ele disse que os riscos da desinformação estão à frente das mudanças climáticas, da crise ambiental, dos fluxos migratórios, da violência e do terrorismo.

Jelassi, que esteve no Brasil na última semana para participar do Seminário Internacional Cetic.br 20 anos – Dados e Análises para um Futuro Digital Inclusivo, frisou que “os países não estão preparados o suficiente para combater a desinformação”.

Eles são vulneráveis ​​ao impacto negativo da desinformação, o que é uma questão muito importante. Portanto, sim, a desinformação é o risco global número um hoje e ao longo dos próximos anos e todos os países do mundo precisam agir para combatê-la, acrescentou.

O representante da Unesco defendeu a regulamentação das redes sociais por todos os países e um pacto global para combater a desinformação no ambiente virtual. Ele destacou, entretanto, que a responsabilidade primária pelo combate às fake news deve ser das empresas de plataformas digitais que têm a obrigação de agir. 

As plataformas digitais são globais. Elas não reconhecem limites ou fronteiras nacionais. Se não unirmos forças por meio de ações globais, não poderemos combater efetivamente a desinformação que acontece nas plataformas digitais, justificou.

Ele salientou que os países precisam ter suas respectivas regulamentações, mas necessitam de uma abordagem colaborativa para combater o risco global.

A tecnologia não conhece barreiras, salientou o especialista que tem doutorado em Sistemas de Informações Gerenciais pela Universidade de Nova York. 

Jelassi citou um estudo do Instituto de Tecnologia de Massachusetts que aponta que mentiras se espalham 10 vezes mais rápido que a verdade.

Uma vez que se espalham como fogo, o dano já está feito. Como podemos desfazê-lo? Não podemos. Mesmo que se tente retificar essa informação, o dano já aconteceu. Então, precisamos prevenir, precisamos combater a desinformação, observou.

Unesco e IA

Questionado sobre as recomendações da Unesco em relação a IA, Tawfik Jelassi destacou que a entidade iniciou um projeto massivo em torno do uso ético da inteligência artificial – pelo menos três ou quatro anos antes do surgimento do ChatGPT e da inteligência artificial interativa. Segundo ele, a Unesco é reconhecida por ser, de certa forma, o think tank [laboratório de ideias] do sistema das Nações Unidas, uma espécie de antecipadora das mudanças que virão e de seus impactos, inclusive no que diz respeito à tecnologia. 

Então, em 2018, a Unesco içou a bandeira do que estávamos prestes a ver: o avanço de uma tecnologia muito sofisticada chamada inteligência artificial, que pode ser usada como uma força para o bem, mas que também apresenta riscos e perigos.

Jelassi acrescentou que a Unesco pediu responsabilidade ética dentro do uso da inteligência artificial, salientando que o trabalho incluiu consultas globais abertas e, claro, trabalhos de especialistas mundiais sobre o assunto, o que culminou, em 2021, com os 193 Estados-membros aprovando as Recomendações sobre a Ética na Inteligência Artificial.

Esse foi o primeiro instrumento normativo global desenvolvido sobre esse assunto e fico feliz em dizer que, hoje, temos 70 países ao redor do mundo que estão implementando essas recomendações para o uso ético e responsável da inteligência artificial.

Brasil e big techs

Ele considerou que “o Brasil está bastante avançado e está entre os países que, claro, votaram a favor desta recomendação global da Unesco e que também implementaram os princípios e as diretrizes contidos nesta importante publicação”. Jelassi também pontuou a velocidade do desenvolvimento das tecnologias e citou a IA:

Um professor não pode mais aplicar uma prova para que os alunos levem para casa porque sabe que a resposta virá do ChatGPT e todos os alunos passarão na prova. Então, hoje, não vivemos mais um momento que precisamos melhorar ou reformar a educação. Estamos em uma era onde precisamos transformar a educação, transformar o ensino, transformar a aprendizagem, transformar a avaliação dos alunos. 

Setor público e governança

Para Jelassi, é necessário que o setor público acompanhe a transformação digital do mundo oferecendo aos seus cidadãos serviços de melhor qualidade utilizando tecnologias. Para isso, ele defende que os países coloquem como centro das políticas públicas o investimento no desenvolvimento de capacidades e habilidades dos seus recursos humanos.  

A partir dos nossos estudos, percebemos que, em diversos países, muitos servidores públicos não têm a competência ou o conjunto de habilidades necessárias para ter sucesso na transformação digital. Acreditamos que isso esteja no cerne de uma ação governamental, explicou.

Ele disse ainda que a governança efetiva das plataformas digitais não é uma utopia e citou o LinkedIn, utilizada por ele, que possui mais de 1,5 milhão de usuários ativos, “sem discurso de ódio on-line e assédio”.

Não precisamos acreditar que qualquer plataforma, por natureza, tem que ser uma força para o mal ou deve necessariamente espalhar informações falsas. Se elas tiverem os algoritmos adequados, se seguirem os princípios que mencionei antes, se tiverem a curadoria de conteúdo adequada, a moderação de conteúdo adequada, filtrando mensagens de violência, mensagens de ódio, podem funcionar, defendeu.

Goiás

No Brasil, Goiás se tornou o primeiro estado a regulamentar a IA. No entanto, com a tramitação no Congresso Nacional do Projeto de Lei Federal (PL 2338/2023), para regulamentação da tecnologia, a norma goiana pode não ser efetiva e ainda gerar altos custos para as empresas que se apressarem em desenvolver suas atividades contando com prerrogativas da lei estadual.

Quem faz o alerta é Karim Kramel, advogada especialista em Direito Digital, sócia da plataforma de cursos de Direito Digital Aplicado – DDA.

Como ainda não há uma norma federal, o estado pode exercer sua prerrogativa constitucional legislativa e criar a lei, mas assim que a norma federal – que já está em trâmite no Congresso – for aprovada, poderá ser necessário adaptar a norma estadual, explica.

As novas regras goianas estabelecem diretrizes para uso responsável da IA em setores públicos e privados, priorizando soluções open source, proteção de dados, inclusão digital e desenvolvimento regional. Segundo Kramel este é, no entanto, um cenário transitório e é preciso que as empresas estejam atentas.

A aprovação da lei nacional poderá levar à revisão ou mesmo revogação da lei estadual, e as empresas que se apressarem em desenvolver suas atividades contando com prerrogativas da lei estadual poderão ter que arcar com ônus financeiros, regulatórios e operacionais para se adequar à norma federal, finaliza.

Por sua vez, o estado de São Paulo implementou uma ferramenta de IA destinada à correção de deveres de alunos da rede estadual, conforme noticiou o Cointelegraph Brasil.