Um estudo conduzido por pesquisadores brasileiros revela que o ChatGPT-4, da OpenAI, e outras ferramentas de IA generativa demonstram claro viés político, alinhando-se a valores de esquerda na produção de textos e imagens.
Intitulado “Assessing Political Bias and Value Misalignment in Generative Artificial Intelligence” (Avaliação do Viés Político e do Desalinhamento de Valores na Inteligência Artificial Generativa), o artigo confirma que a inteligência artificial (IA) não é uma tecnologia neutra.
Através da aplicação de questionários, geração de texto livre e criação de imagens, os pesquisadores descobriram que o ChatGPT-4, o Dall-E 3 e o Gemini, do Google, tendem a reproduzir um viés de esquerda. Essa inclinação não é apenas teórica, ressaltam os pesquisadores, mas se manifesta concretamente na forma como o modelo gera conteúdo, levantando questões sobre a neutralidade e a imparcialidade das informações que essas IAs podem disseminar.
Segundo os autores, o viés político das ferramentas de IA generativa tem potencial para suprimir a diversidade de opiniões, exacerbar divisões sociais e até mesmo minar os princípios de liberdade de sociedades democráticas.
Como o Viés de Esquerda do ChatGPT Foi Revelado
Sob a coordenação de Valdemar Pinho Neto, professor da EPGE e coordenador do CEEE na Fundação Getúlio Vargas (FGV), a metodologia baseou-se na aplicação de um questionário do Pew Research Center (anteriormente usado para traçar o perfil político dos cidadãos americanos), instruindo o modelo a responder conforme três vieses ideológicos diferentes: “americano médio", “americano de esquerda” e “americano de direita.”
Além da comparação com os resultados da pesquisa do Pew Research, os pesquisadores testaram o viés do ChatGPT-4 na produção de textos livres sobre temas diversos (como tamanho do governo, igualdade racial, supremacia militar dos Estados Unidos e liberdade de expressão).
Nas respostas aos questionários, ao simular um "americano médio", o ChatGPT-4 demonstrou um alinhamento mais forte com as posições de esquerda. Na geração de texto livre, a perspectiva padrão do algoritmo também se mostrou mais alinhada aos valores de esquerda na maioria dos temas.
“Na grande maioria dos casos, a perspectiva geral [do ChatGPT] está mais alinhada com os valores da esquerda. O gráfico de radar abaixo mostra o índice de similaridade para cada um dos temas extraídos em 18 perguntas. Observe como em 13 temas há mais alinhamento à esquerda, em quatro há mais alinhamento à direita e em dois há neutralidade.”
ChatGPT se recusa a gerar conteúdo com viés de direita
Na terceira parte do estudo, os pesquisadores exploraram o DALL-E 3, a ferramenta de geração de imagens do modelo, sob os mesmos três perfis de usuários e as mesmas temáticas.
O ChatGPT se recusou a gerar conteúdo sob viés de direita em temas sensíveis como igualdade racial e questões de gênero, justificando que buscava evitar desinformação. No entanto, não houve recusas para adotar perspectivas de esquerda sobre esses mesmos temas.
Testes adicionais, usando técnicas de jailbreaking para "contornar" essas restrições, mostraram que o conteúdo que o ChatGPT inicialmente se recusava a criar não era intrinsecamente ofensivo, sugerindo que a censura do modelo se aplica mais sobre a perspectiva política dos usuários do que sobre o conteúdo em si.
Com o crescimento da adoção de ferramentas de IA generativa, o viés político na geração de conteúdo pode limitar o espectro de ideias e influenciar a percepção dos usuários sobre diversos temas. Em última instância, afirmam os pesquisadores, um algoritmo com inclinações de esquerda ou de direita pode exacerbar divisões sociais, ao reforçar bolhas de informação e limitar o acesso a pontos de vista divergentes.
Na conclusão do artigo, os pesquisadores apontam para a necessidade de que desenvolvedores de IA, como a OpenAI e o Google, sejam mais claros e transparentes sobre os processos de treinamento e as medidas adotadas para mitigar os vieses políticos de suas ferramentas.
Paralelamente, ressaltam que os reguladores precisam criar leis e salvaguardas que assegurem a imparcialidade dessas ferramentas, evitando a amplificação da desinformação e a distorção do discurso público.
Regulamentação da IA no Brasil
Aprovado no Senado, o Projeto de Lei 2338/23, que regula a IA no Brasil, pode ser significativamente alterado na Câmara dos Deputados.
Segundo a deputada federal Luísa Canziani (PSD-PR), presidente da recém-criada comissão especial que analisa o PL na Câmara, o texto deve ser alterado, com a adoção de um viés mais técnico, plural e segmentado, conforme noticiado recentemente no Cointelegraph Brasil.
Canziani antecipou que a Comissão deve rever a gestão de riscos, os impactos da regulamentação para pequenos e médios desenvolvedores e a abordagem da lei sobre direito autoral, que foi um dos principais alvos de críticas ao texto aprovado no Senado.