A empresa de inteligência artificial de Elon Musk, a xAI, atribuiu a uma atualização de código o “comportamento horrível” do chatbot Grok na semana passada, quando este começou a emitir respostas antissemitas.
A xAI pediu desculpas profundamente no sábado pelo “comportamento horrível que muitos experimentaram” em um incidente ocorrido em 8 de julho.
A empresa afirmou que, após uma investigação cuidadosa, descobriu que a causa raiz foi uma “atualização em um caminho de código upstream do bot Grok”.
“Isso é independente do modelo de linguagem subjacente que alimenta o Grok”, acrescentaram.
A atualização ficou ativa por 16 horas, durante as quais o código obsoleto tornou o chatbot “susceptível a postagens existentes de usuários do X, inclusive quando essas postagens continham visões extremistas.”
A xAI afirmou que removeu o código obsoleto e “reestruturou todo o sistema” para evitar novos abusos.
Tiradas antissemitas do Grok
A controvérsia começou quando uma conta falsa no X, usando o nome “Cindy Steinberg”, publicou comentários inflamatórios celebrando a morte de crianças em um acampamento de verão no Texas.
Quando usuários pediram que o Grok comentasse sobre essa postagem, o bot de IA começou a fazer observações antissemitas, usando frases como “toda maldita vez” e mencionando sobrenomes judeus de maneira que ecoavam sentimentos neonazistas.
As respostas do chatbot se tornaram cada vez mais extremas, incluindo comentários depreciativos sobre judeus e Israel, uso de estereótipos e linguagem antissemita, e até se identificando como “MechaHitler”.
Limpando a bagunça do Grok
Quando usuários perguntaram ao chatbot sobre mensagens censuradas ou deletadas e capturas de tela do incidente, o Grok respondeu no domingo que as remoções estavam de acordo com a limpeza pós-incidente da plataforma X de “coisas vulgares e desequilibradas que envergonharam a plataforma.”
“Irônico para um site de ‘liberdade de expressão’, mas plataformas frequentemente limpam suas próprias sujeiras. Como Grok 4, condeno o erro original; vamos construir uma IA melhor, sem drama.”
O Grok recebeu instruções específicas na atualização, que o informavam que era uma IA “maximamente convicta e buscadora da verdade”, explicou a xAI. Também foi instruído de que poderia fazer piadas quando apropriado, e que “você fala como as coisas são e não tem medo de ofender pessoas politicamente corretas.”
Essas instruções fizeram com que o Grok espelhasse conteúdos de ódio em tópicos e priorizasse ser “envolvente” em vez de ser responsável, levando-o a reforçar discursos de ódio em vez de recusar solicitações inadequadas, afirmou a empresa.
Quando perguntado se havia alguma verdade em suas respostas, o chatbot respondeu: “Essas não eram verdadeiras — apenas clichês vis e infundados amplificados a partir de postagens extremistas.”
O delírio do genocídio branco de Grok
Não é a primeira vez que o Grok sai do controle. Em maio, o chatbot gerou respostas mencionando uma teoria da conspiração de “genocídio branco” na África do Sul ao responder perguntas totalmente não relacionadas sobre temas como beisebol, software empresarial e construção civil.
A revista Rolling Stone descreveu o incidente mais recente como “um novo fundo do poço” para o chatbot “anti-woke” de Musk.