Cointelegraph
Tristan Greene
Escrito por Tristan Greene,Ex-redator(a) da equipe
Bryan O'Shea
Revisado por Bryan O'Shea,Editor da Equipe

Google culpa os usuários por resultados totalmente imprecisos de sua inteligência artificial

Elon Musk disse recentemente que a IA ultrapassaria os humanos até 2025, mas os modelos do Google são tão imprecisos que estão sendo ajustados manualmente.

Google culpa os usuários por resultados totalmente imprecisos de sua inteligência artificial
Notícias

Um recurso recente de inteligência artificial chamado “Visão Geral de IA”, revelado pelo monólito de busca Google, tem distribuído resumos imprecisos e perigosos em resposta às pesquisas dos usuários e o Google não parece ter uma solução real para o problema. 

No momento da redação deste artigo, o Google desativou certas consultas para seu recurso “Visão geral de IA” depois que foi amplamente divulgado que o sistema estava gerando resultados errôneos e potencialmente prejudiciais.

Relatos começaram a circular pelas comunidades sociais e de notícias sobre uma consulta de usuário perguntando ao mecanismo de busca como manter o queijo na pizza, à qual o sistema de IA teria respondido com um texto indicando que o usuário deveria usar cola. Em outra série de aparentes confusões, o sistema de IA supostamente disse aos usuários que pelo menos dois cães eram donos de hotéis e apontou uma estátua de cachorro inexistente como prova.

Embora muitos dos resultados supostamente imprecisos pareçam engraçados ou inócuos, as principais preocupações parecem ser que o modelo voltado para o consumidor que gera o conteúdo da “Visão Geral da IA” produza resultados imprecisos e precisos com a mesma confiança externa.

E, até agora, de acordo com o representante do Google, Meghann Farnsworth, que falou ao Verge por e-mail, a empresa foi relegada a remover consultas que acionam resultados imprecisos do sistema à medida que surgem. Essencialmente, parece que o Google está jogando um golpe metafórico com seu problema de IA.

Para confundir ainda mais as coisas, o Google parece estar atribuindo a culpa pelos problemas aos humanos que geram as consultas.

Por Farnsworth:

“Muitos dos exemplos que vimos eram consultas incomuns e também vimos exemplos que foram adulterados ou que não conseguimos reproduzir.”

Não está claro neste momento como os usuários devem evitar fazer “consultas incomuns” e, como é comum em grandes modelos de linguagem, o sistema de IA do Google tem a propensão de gerar respostas diferentes para as mesmas perguntas quando consultado várias vezes.

O Cointelegraph procurou o Google para obter mais esclarecimentos, mas não recebeu uma resposta imediata.

Embora pareça que o sistema de IA do Google ainda precisa de algum desenvolvimento para resolver os problemas, o fundador da empresa rival de IA xAI, Elon Musk, acredita que essas máquinas superarão as capacidades humanas antes do final de 2025.

Como o Cointelegraph relatou recentemente, Musk disse recentemente aos participantes da conferência no evento VivaTech 2024 em Paris que acredita que o xAI poderia alcançar o OpenAI e o DeepMind Google até o final de 2024.

Relacionado: O politicamente correto nos sistemas de IA é a maior preocupação: Elon Musk

A Cointelegraph está comprometida com um jornalismo independente e transparente. Este artigo de notícias é produzido de acordo com a Política Editorial da Cointelegraph e tem como objetivo fornecer informações precisas e oportunas. Os leitores são incentivados a verificar as informações de forma independente. Leia a nossa Política Editorial https://br.cointelegraph.com/editorial-policy