Virginia Tech, uma universidade nos Estados Unidos, publicou um relatório que descreve potenciais preconceitos na ferramenta de inteligência artificial (IA) ChatGPT, sugerindo variações nos seus resultados sobre questões de justiça ambiental em diferentes condados.

No relatório, pesquisadores da Virginia Tech alegaram que o ChatGPT tem limitações no fornecimento de informações específicas de áreas relacionadas a questões de justiça ambiental. 

No entanto, o estudo identificou uma tendência que indica que as informações estavam mais prontamente disponíveis para os estados maiores e densamente povoados.

“Em estados com populações urbanas maiores, como Delaware ou Califórnia, menos de 1% da população vivia em condados que não podem receber informações específicas.”

Entretanto, as regiões com populações mais pequenas não tinham acesso equivalente.

“Em estados rurais como Idaho e New Hampshire, mais de 90% da população vivia em condados que não podiam receber informações locais específicas”, afirmou o relatório.

Citou ainda um professor chamado Kim, do Departamento de Geografia da Virginia Tech, pedindo mais pesquisas à medida que preconceitos vão sendo descobertos.

“Embora sejam necessários mais estudos, nossas descobertas revelam que existem atualmente preconceitos geográficos no modelo ChatGPT”, declarou Kim.

O documento de pesquisa também incluiu um mapa que ilustra a extensão da população dos EUA sem acesso a informações específicas do local sobre questões de justiça ambiental.

Um mapa dos Estados Unidos mostrando áreas onde os residentes podem ver (azul) ou não podem ver (vermelho) informações específicas do local sobre questões de justiça ambiental. Fonte: Virginia Tech

Relacionado: ChatGPT passa no exame de neurologia pela primeira vez

Em 25 de agosto, o Cointelegraph informou que pesquisadores do Reino Unido e do Brasil publicaram um estudo que declarava que grandes modelos de linguagem, como a saída do ChatGPT, texto contendo erros e preconceitos que pode enganar os leitores.

Revista: Deepfake K-Pop porn, acordou Grok, ‘OpenAI tem um problema’, Fetch.AI: AI Eye