Pesquisas incríveis no campo da "computação fotônica" podem ter implicações revolucionárias para o desenvolvimento de inteligência artificial em nível humano.
Cientistas na China desenvolveram recentemente um chip de treinamento de inteligência artificial que usa luz para realizar cálculos em vez de eletricidade. De acordo com a equipe, ele é extremamente mais eficiente do que os chips de IA mais populares no mercado.
Enquanto isso, uma equipe de pesquisadores da Universidade de Oxford demonstrou que técnicas semelhantes de computação baseada em luz podem ser realizadas usando fontes de luz comuns, em vez de lasers de alta potência.
Esses dois avanços representam uma bifurcação potencial no caminho para o desenvolvimento de inteligência geral artificial (AGI), também conhecida como "IA em nível humano".
Inteligência Geral Artificial (AGI)
AGI não é um termo científico. É uma ideia puramente teórica que basicamente significa "uma máquina inteligente o suficiente para fazer qualquer coisa que um ser humano médio poderia, dadas as mesmas condições".
Cientistas estão explorando diversos caminhos para a AGI, com transformadores pré-treinados generativos (GPTs) sendo um dos mais populares. No entanto, alguns pesquisadores afirmam que os GPTs são um beco sem saída no caminho para a AGI, e outros ainda afirmam que precisaremos de algo mais poderoso do que computadores clássicos para imitar o cérebro humano.
Computação Fotônica
O uso de luz para realizar cálculos existe desde a década de 1960. É frequentemente chamado de computação óptica e, de acordo com físicos que trabalham no campo, pode um dia substituir a computação por sinais elétricos, devido ao fato de que gerar luz requer muito menos energia do que gerar eletricidade.
Agora que uma equipe na China desenvolveu um chip de computador fotônico com o propósito específico de treinar um modelo de IA, e uma equipe separada no Reino Unido demonstrou a computação fotônica usando luz comum, parece que há novas opções disponíveis para pesquisadores de IA.
Clássica ou quântica?
Para tentar aproximar o pensamento humano, desenvolvedores de IA continuam a escalar modelos como o GPT-4 na esperança de que um dia eles serão grandes o suficiente para imitar a multidão de conexões que ocorrem entre os 100 bilhões de neurônios e 1.000 trilhões de sinapses em nossos cérebros.
Mas pesquisas sugerem que nossos cérebros funcionam mais como computadores quânticos. Se for verdade, um modelo de IA binário teria, teoricamente, que conter mais neurônios e sinapses artificiais do que um cérebro humano em ordens de magnitude para se aproximar da sua complexidade.
Isso deixa os pesquisadores com duas possibilidades: eles podem maximizar a computação binária ou começar do zero com hardware habilitado para quântica e soluções de treinamento.
Se os chips de IA fotônica se mostrarem uma alternativa viável e eficiente em termos de energia ao status quo, é possível que eles possam levar os modelos GPT além do que seria viável apenas devido à sua eficiência.
E, quando se trata de interface com quaisquer soluções potenciais de IA quântica no futuro, é um simples fato da natureza que a luz viaja mais rápido que a eletricidade.