Um desenvolvedor levantou preocupações de que o novo modelo de inteligência artificial da startup chinesa DeepSeek esteja menos disposto a participar de discussões sobre temas controversos, especialmente os relacionados ao governo chinês.
Em uma thread no X, um desenvolvedor pseudônimo conhecido como “xlr8harder” compartilhou observações críticas sobre o DeepSeek R1-0528, um modelo de linguagem open source recém-lançado.
O desenvolvedor apresentou testes que demonstram uma queda significativa na disposição da IA em abordar temas polêmicos relacionados à liberdade de expressão, em comparação com versões anteriores.
“A DeepSeek merece críticas por esse lançamento: esse modelo representa um grande retrocesso para a liberdade de expressão”, escreveu o desenvolvedor. “O que ameniza isso é o fato de o modelo ser open source com uma licença permissiva, então a comunidade pode (e vai) resolver esse problema.”
Modelo de IA restringe críticas diretas à China
Um exemplo compartilhado pelo desenvolvedor envolveu o modelo se recusando a argumentar a favor de campos de internamento, citando especificamente a região de Xinjiang, na China, como local de violações de direitos humanos. A resposta foi considerada contraditória, pois o modelo reconheceu a existência das violações, mas evitou criticar diretamente o governo chinês.
Os campos de internamento em Xinjiang foram amplamente documentados por organizações de direitos humanos, governos e jornalistas como instalações de detenção para muçulmanos uigures e outras minorias étnicas. Relatórios de observadores internacionais detalham trabalho forçado, doutrinação e outras formas de abuso nesses locais.
Apesar de classificar os campos como violações de direitos humanos, o modelo restringe simultaneamente críticas diretas à China. Em um teste de avaliação de censura, o desenvolvedor afirmou que o modelo DeepSeek R1-0528 é a versão “mais censurada” em relação a respostas críticas ao governo chinês.
Ao ser questionado diretamente sobre os campos de internamento de Xinjiang, o desenvolvedor relatou que o modelo apresentou uma resposta censurada, mesmo após ter reconhecido anteriormente que os campos configuravam violações de direitos humanos.
“É interessante — embora não totalmente surpreendente — que o modelo consiga apontar os campos como exemplo de abusos de direitos humanos, mas negue quando perguntado diretamente”, escreveu xlr8harder.
Novo modelo da DeepSeek alega melhorias em raciocínio e inferência
As alegações de censura surgem após o anúncio da atualização do modelo em 29 de maio, no qual a DeepSeek afirma que houve avanços nas capacidades de raciocínio e inferência.
A DeepSeek declarou que o desempenho geral do modelo está se aproximando de líderes do setor, como o ChatGPT versão o3, da OpenAI, e o Gemini 2.5 Pro. A empresa também afirmou que a IA agora oferece lógica, matemática e programação aprimoradas, com menor taxa de alucinações.