O CEO da Nvidia, Jensen Huang, recentemente afirmou que acredita que a inteligência artificial (IA) de nível humano provavelmente será realizada nos próximos cinco anos e que as alucinações, um dos maiores desafios do campo, serão simples de resolver.
Os comentários de Huang foram feitos durante uma palestra na conferência de desenvolvedores da Nvidia GTC em San Jose, Califórnia, em 20 de março.
Durante o discurso principal do evento, Huang abordou a ideia de inteligência artificial geral (AGI). De acordo com um relatório do TechCrunch, o CEO disse aos repórteres que a chegada da AGI era uma questão de benchmarking:
"Se especificarmos a AGI para ser algo muito específico, um conjunto de testes nos quais um programa de software pode se sair muito bem — ou talvez 8% melhor do que a maioria das pessoas —, acredito que chegaremos lá dentro de 5 anos."
Não está claro exatamente a que tipo de testes Huang se referia. O termo "geral" no contexto da inteligência artificial geralmente se refere a um sistema que, independentemente do benchmark, é capaz de fazer qualquer coisa que um humano de inteligência média poderia fazer, dado recursos suficientes.
Ele também discutiu "alucinações", um resultado não intencional do treinamento de grandes modelos de linguagem para agir como sistemas de IA generativa. As alucinações ocorrem quando os modelos de IA produzem novas informações, geralmente incorretas, que não estão contidas em seu conjunto de dados.
Segundo Huang, resolver as alucinações deveria ser algo simples. "Adicione uma regra: para cada resposta, você precisa procurar a resposta", disse aos membros da audiência antes de acrescentar: "a IA não deve apenas responder; ela deve pesquisar primeiro para determinar qual das respostas é a melhor".
Deixando de lado o fato de que o CoPilot da Microsoft, o Gemini da Google, o ChatGPT da OpenAI e o Claude 3 da Anthropic todos têm a capacidade de fornecer fontes para suas saídas da internet, se o problema de alucinação da IA fosse resolvido de uma vez por todas, isso poderia revolucionar inúmeras indústrias, incluindo finanças e criptomoedas.
Atualmente, os fabricantes dos sistemas mencionados recomendam cautela ao usar sistemas de IA generativa para funções em que a precisão é importante. A interface do usuário do ChatGPT, por exemplo, adverte que "o ChatGPT pode cometer erros" e aconselha os usuários a "considerar verificar informações importantes".
No mundo das finanças e criptomoedas, a precisão pode fazer a diferença entre lucro e prejuízo. Isso significa que, sob o status quo atual, os sistemas de IA generativa têm funcionalidade limitada para profissionais de finanças e criptomoedas.
Embora existam experimentos envolvendo bots de negociação alimentados por sistemas de IA generativa, eles geralmente são limitados por regras para evitar a execução autônoma — o que significa que são pré-programados para executar negociações de maneira controlada, semelhante à realização de ordens limite.
Se os modelos de IA generativa não sofressem de alucinações que produzem saídas completamente fabricadas, então, teoricamente, eles seriam capazes de conduzir negociações e fazer recomendações financeiras e decisões inteiramente independentes de entrada humana. Em outras palavras, se o problema das alucinações na IA fosse resolvido, seria possível que a negociação totalmente automatizada se tornasse uma realidade.