No último ano, o surgimento de ferramentas de inteligência artificial (IA) generativa acessíveis desencadeou uma febre de uso entre os consumidores. Desde responder perguntas modestas até usar a tecnologia para realizar tarefas de trabalho extensas, a tecnologia está se tornando cada vez mais um elemento comum na vida cotidiana .

Os dados confirmam isso, com as plataformas de IA mais populares vendo um aumento massivo no tráfego. O popular chatbot de IA da OpenAI, ChatGPT, tem cerca de 180,5 milhões de usuários mensais a partir de janeiro de 2024.

Nesta paisagem em rápida evolução da IA generativa, a demanda por poder computacional para rodar a tecnologia está atingindo níveis sem precedentes. Conforme as empresas lidam com as complexidades de gerenciar esse aumento nos requisitos computacionais, especialistas da indústria estão tentando encontrar soluções práticas.

Em uma entrevista ao Cointelegraph, Doug Petkanics, cofundador e CEO da rede de infraestrutura de vídeo Livepeer, compartilhou insights sobre a crescente demanda por poder computacional de IA em 2024 e lançou luz sobre estratégias para gerenciar os requisitos crescentes para rodar a tecnologia.

Entendendo a importância do poder computacional

O poder computacional é a espinha dorsal do desenvolvimento e implantação de IA, pois governa a velocidade e eficiência dos modelos de IA.

De acordo com o cofundador da Livepeer, as três etapas no ciclo de vida da IA que normalmente necessitam de substancial poder computacional ocorrem durante seu treinamento, ajuste fino e inferência, que é quando o modelo treinado e ajustado produz saídas ou previsões com base em um conjunto de entradas (também conhecidas como prompts).

A urgência por respostas mais rápidas, no entanto, colide com a realidade econômica dos altos custos.

Petkanics explicou que “mais poder computacional geralmente se correlaciona com respostas mais rápidas. Mas sempre há um equilíbrio entre a experiência do usuário (velocidade) e a viabilidade econômica do projeto (custo).”

Algumas estimativas colocam os custos operacionais diários da OpenAI em US$ 700.000. Os incríveis custos de computação são exacerbados pela escassez de GPUs adequadas para computação de IA.

“Felizmente, as mesmas GPUs que já estão rodando em redes DePIN coordenadas por cripto, realizando tarefas como transcodificação de vídeo e renderização 3D, são bem adequadas para IA.”

“É por isso que essas redes cripto se tornaram um componente tão crítico do boom da IA,” disse ele. Especialistas da indústria já estão apontando para o "casal poderoso" emergente deste ano de DePINs e IA.

Um consumidor consciente

Enquanto o poder computacional está se tornando uma preocupação importante para aqueles que desenvolvem a tecnologia, Petkanics explicou que, como de costume, os consumidores não estão por dentro do assunto.

“A maioria das pessoas não pensa muito sobre infraestrutura: de onde vem a energia, como a internet funciona, o custo ou a pegada de carbono de uma pesquisa no Google,” disse ele. “Eles querem que as utilidades funcionem sob demanda, todas as vezes.”

Ele disse que o mesmo vale para o poder computacional da IA. A maioria dos usuários não pensa sobre a energia, uso ou custo computacional dos prompts de IA que eles inserem em seu chatbot favorito. “Eles se preocupam com velocidade e relevância,” disse ele.

“Os consumidores não notarão problemas com o poder computacional até que os custos sejam repassados na forma de um aumento na quantidade de anúncios, diminuição da velocidade/qualidade das respostas ou aumento dos custos de assinatura.”

Implicações nacionais e globais

Abordando implicações mais amplas, Petkanics expressou preocupações com a monopolização de plataformas de IA em grande escala.

Assim como o amanhecer da internet trouxe um grupo de empresas que agora são coletivamente conhecidas como "Big Tech" — Alphabet (Google), Amazon, Apple, Meta (Facebook e Instagram) e Microsoft — o início da era da IA vê as mesmas megaempresas competindo pela dominância.

“Essas poucas grandes empresas de tecnologia já possuem grandes conjuntos de dados proprietários coletados a partir de dados de clientes para treinar modelos; elas gastaram bilhões treinando esses modelos...”

Uma vez que essas empresas possuem essa pilha completa, isso essencialmente permitiria a elas “inserir arbitrariamente” seus próprios vieses em como os modelos se comportam em um determinado conjunto de entradas. Isso também teoricamente permitiria a elas censurar quais entradas e saídas podem ser fornecidas a esses modelos pelos usuários.

Assim, Petkanics enfatizou a importância do movimento de IA de código aberto, que ele disse já poder ser visto com a infraestrutura DePIN mencionada, que pode ajudar a garantir acessibilidade e mitigar riscos associados à centralização.

“Os países devem apoiar esses movimentos para garantir que essa onda de inovação seja acessível a todos e beneficie uma população mundial.”

O boom da IA está apenas começando. À medida que continua a evoluir, Petkanics e muitos outros na vanguarda desses desenvolvimentos já preveem um “novo conjunto” de considerações econômicas, ambientais e sociais.

VEJA MAIS: