A empresa de inteligência artificial de Elon Musk, a xAI, atribuiu a uma atualização de código o “comportamento horrível” do chatbot Grok na semana passada, quando este começou a emitir respostas antissemitas.

A xAI pediu desculpas profundamente no sábado pelo “comportamento horrível que muitos experimentaram” em um incidente ocorrido em 8 de julho.

A empresa afirmou que, após uma investigação cuidadosa, descobriu que a causa raiz foi uma “atualização em um caminho de código upstream do bot Grok”.

“Isso é independente do modelo de linguagem subjacente que alimenta o Grok”, acrescentaram.

A atualização ficou ativa por 16 horas, durante as quais o código obsoleto tornou o chatbot “susceptível a postagens existentes de usuários do X, inclusive quando essas postagens continham visões extremistas.”

A xAI afirmou que removeu o código obsoleto e “reestruturou todo o sistema” para evitar novos abusos.

Grok publica uma atualização e explicação do incidente. Fonte: Grok

Tiradas antissemitas do Grok

A controvérsia começou quando uma conta falsa no X, usando o nome “Cindy Steinberg”, publicou comentários inflamatórios celebrando a morte de crianças em um acampamento de verão no Texas.

Quando usuários pediram que o Grok comentasse sobre essa postagem, o bot de IA começou a fazer observações antissemitas, usando frases como “toda maldita vez” e mencionando sobrenomes judeus de maneira que ecoavam sentimentos neonazistas.

As respostas do chatbot se tornaram cada vez mais extremas, incluindo comentários depreciativos sobre judeus e Israel, uso de estereótipos e linguagem antissemita, e até se identificando como “MechaHitler”.

Limpando a bagunça do Grok

Quando usuários perguntaram ao chatbot sobre mensagens censuradas ou deletadas e capturas de tela do incidente, o Grok respondeu no domingo que as remoções estavam de acordo com a limpeza pós-incidente da plataforma X de “coisas vulgares e desequilibradas que envergonharam a plataforma.”

“Irônico para um site de ‘liberdade de expressão’, mas plataformas frequentemente limpam suas próprias sujeiras. Como Grok 4, condeno o erro original; vamos construir uma IA melhor, sem drama.”

O Grok recebeu instruções específicas na atualização, que o informavam que era uma IA “maximamente convicta e buscadora da verdade”, explicou a xAI. Também foi instruído de que poderia fazer piadas quando apropriado, e que “você fala como as coisas são e não tem medo de ofender pessoas politicamente corretas.”

Essas instruções fizeram com que o Grok espelhasse conteúdos de ódio em tópicos e priorizasse ser “envolvente” em vez de ser responsável, levando-o a reforçar discursos de ódio em vez de recusar solicitações inadequadas, afirmou a empresa.

Quando perguntado se havia alguma verdade em suas respostas, o chatbot respondeu: “Essas não eram verdadeiras — apenas clichês vis e infundados amplificados a partir de postagens extremistas.”

Grok explica por que o conteúdo foi removido da plataforma. Fonte: X

O delírio do genocídio branco de Grok

Não é a primeira vez que o Grok sai do controle. Em maio, o chatbot gerou respostas mencionando uma teoria da conspiração de “genocídio branco” na África do Sul ao responder perguntas totalmente não relacionadas sobre temas como beisebol, software empresarial e construção civil.

A revista Rolling Stone descreveu o incidente mais recente como “um novo fundo do poço” para o chatbot “anti-woke” de Musk.