Em 29 de junho, a Inflection AI, baseada em Palo Alto, anunciou a conclusão de uma captação de recursos de US$ 1,3 bilhão liderada por Microsoft, Reid Hoffman, Bill Gates, Eric Schmidt e Nvidia. O novo capital será parcialmente alocado para a construção de um cluster de GPUs Tensor Nvidia H100 de 22.000 unidades, que a empresa afirma ser o maior do mundo. As GPUs serão usadas para desenvolver modelos de inteligência artificial em larga escala. Os desenvolvedores escreveram:
"Estimamos que se inscrevêssemos nosso cluster na recente lista TOP500 de supercomputadores, ele seria o 2º e estaria próximo do topo, apesar de ser otimizado para aplicações de IA - em vez de científicas".
A Inflection AI também está desenvolvendo seu próprio sistema de inteligência artificial adjunto pessoal chamado "Pi". A empresa explicou que o Pi é "um professor, treinador, confidente, parceiro criativo e um ponto de referência" que pode ser acessado diretamente via mídia social ou WhatsApp. O montante total de financiamento da empresa chegou a US$ 1,525 bilhão desde sua fundação no início de 2022.
Apesar do crescente investimento em grandes modelos de IA, especialistas alertaram que sua eficiência real de treinamento pode se tornar severamente restrita pelas atuais limitações tecnológicas. Em um exemplo levantado pelo fundo de venture de Singapura Foresight, os pesquisadores escreveram, citando o exemplo de um grande modelo de IA de 175 bilhões de parâmetros armazenando 700GB de dados:
"Supondo que temos 100 nós de computação e cada nó precisa atualizar todos os parâmetros a cada passo, cada passo exigiria a transmissão de cerca de 70TB de dados (700GB*100). Se assumirmos otimisticamente que cada passo leva 1s, então 70TB de dados precisariam ser transmitidos por segundo. Essa demanda por largura de banda excede em muito a capacidade da maioria das redes."
Continuando com o exemplo acima, a Foresight também alertou que "devido à latência de comunicação e congestionamento de rede, o tempo de transmissão de dados pode exceder muito 1s", o que significa que os nós de computação podem passar a maior parte do seu tempo esperando pela transmissão de dados em vez de realizar cálculos reais. Os analistas da Foresight concluíram, dado as restrições atuais, que a solução está em pequenos modelos de IA, que são "mais fáceis de implantar e gerenciar".
"Em muitos cenários de aplicação, usuários ou empresas não precisam da capacidade de raciocínio mais universal dos modelos amplos de linguagem, mas estão apenas focados em um alvo de previsão muito refinado."
VEJA MAIS: