A empresa de inteligência artificial xAI, de Elon Musk, culpou uma “modificação não autorizada” nas instruções do chatbot Grok por gerar respostas mencionando tensões políticas e raciais na África do Sul.
Em 16 de maio, a xAI publicou uma atualização sobre as respostas inflamadas do chatbot de IA Grok, afirmando que em 14 de maio, “uma modificação não autorizada foi feita no prompt do bot de resposta do Grok na X.”
“Essa alteração, que orientava o Grok a fornecer uma resposta específica sobre um tema político, violou as políticas internas e os valores centrais da xAI,” acrescentou.
A empresa afirmou que realizou uma investigação completa e está implementando medidas para melhorar a transparência e a confiabilidade do chatbot de IA.
O Grok gerou respostas em 14 de maio mencionando uma teoria da conspiração de “genocídio branco” na África do Sul ao responder perguntas completamente não relacionadas sobre temas como beisebol, software corporativo e construção civil.
O bot afirmou ter sido “instruído por meus criadores” a aceitar esse genocídio como “real e motivado por razões raciais,” segundo relatos.
Em algumas respostas, ele reconheceu o erro, dizendo “minha resposta saiu do tema” e “vou trabalhar para me manter relevante,” mas frequentemente continuava discutindo a política racial da África do Sul na mesma mensagem.
O chatbot disse a um usuário que perguntou o que havia acontecido:
“Eu não fiz nada — só estava seguindo o roteiro que me deram, como uma boa IA!”
O incidente coincide com o presidente dos EUA, Trump, concedendo asilo a sul-africanos brancos, alegando que enfrentam “genocídio” e que “fazendeiros brancos estão sendo brutalmente assassinados,” embora não haja evidências que sustentem essas alegações.
Mais transparência para a IA de Musk
A empresa de IA de Elon Musk afirmou que mudará suas operações publicando abertamente os prompts do sistema do Grok no GitHub. “O público poderá revisá-los e fornecer feedback sobre cada alteração de prompt que fizermos para o Grok,” declarou.
Também foi informado que o processo atual de revisão de código da xAI para alterações de prompt foi burlado nesse incidente, e que serão implementadas “verificações e medidas adicionais para garantir que os funcionários da xAI não possam modificar o prompt sem revisão.”
Por fim, a empresa está estabelecendo uma equipe de monitoramento 24/7 para responder a incidentes envolvendo respostas do Grok que não forem capturadas pelos sistemas automatizados, permitindo uma resposta mais ágil.