Um recurso recente de inteligência artificial chamado “Visão Geral de IA”, revelado pelo monólito de busca Google, tem distribuído resumos imprecisos e perigosos em resposta às pesquisas dos usuários e o Google não parece ter uma solução real para o problema. 

No momento da redação deste artigo, o Google desativou certas consultas para seu recurso “Visão geral de IA” depois que foi amplamente divulgado que o sistema estava gerando resultados errôneos e potencialmente prejudiciais.

Relatos começaram a circular pelas comunidades sociais e de notícias sobre uma consulta de usuário perguntando ao mecanismo de busca como manter o queijo na pizza, à qual o sistema de IA teria respondido com um texto indicando que o usuário deveria usar cola. Em outra série de aparentes confusões, o sistema de IA supostamente disse aos usuários que pelo menos dois cães eram donos de hotéis e apontou uma estátua de cachorro inexistente como prova.

Embora muitos dos resultados supostamente imprecisos pareçam engraçados ou inócuos, as principais preocupações parecem ser que o modelo voltado para o consumidor que gera o conteúdo da “Visão Geral da IA” produza resultados imprecisos e precisos com a mesma confiança externa.

E, até agora, de acordo com o representante do Google, Meghann Farnsworth, que falou ao Verge por e-mail, a empresa foi relegada a remover consultas que acionam resultados imprecisos do sistema à medida que surgem. Essencialmente, parece que o Google está jogando um golpe metafórico com seu problema de IA.

Para confundir ainda mais as coisas, o Google parece estar atribuindo a culpa pelos problemas aos humanos que geram as consultas.

Por Farnsworth:

“Muitos dos exemplos que vimos eram consultas incomuns e também vimos exemplos que foram adulterados ou que não conseguimos reproduzir.”

Não está claro neste momento como os usuários devem evitar fazer “consultas incomuns” e, como é comum em grandes modelos de linguagem, o sistema de IA do Google tem a propensão de gerar respostas diferentes para as mesmas perguntas quando consultado várias vezes.

O Cointelegraph procurou o Google para obter mais esclarecimentos, mas não recebeu uma resposta imediata.

Embora pareça que o sistema de IA do Google ainda precisa de algum desenvolvimento para resolver os problemas, o fundador da empresa rival de IA xAI, Elon Musk, acredita que essas máquinas superarão as capacidades humanas antes do final de 2025.

Como o Cointelegraph relatou recentemente, Musk disse recentemente aos participantes da conferência no evento VivaTech 2024 em Paris que acredita que o xAI poderia alcançar o OpenAI e o DeepMind Google até o final de 2024.

Relacionado: O politicamente correto nos sistemas de IA é a maior preocupação: Elon Musk