Mais de 2.600 líderes e pesquisadores de tecnologia assinaram uma carta aberta pedindo uma pausa temporária no desenvolvimento da inteligência artificial (IA), temendo “riscos profundos para a sociedade e a humanidade.”

O CEO da Tesla, Elon Musk, o cofundador da Apple, Steve Wozniak, e uma série de CEOs, CTOs e pesquisadores de IA estão entre os signatários da carta, que foi publicada em 22 de março pela instituição de pesquisa baseada nos Estados Unidos Future of Life Institute (FOLI).

O instituto convocou todas as empresas de IA a “pausar imediatamente” o treinamento de sistemas de IA mais poderosos que o GPT-4 por pelo menos seis meses, sob o argumento de que “a competição de inteligência com os humanos pode representar riscos profundos para a sociedade e a humanidade”, entre outras coisas.

Estamos convocando os laboratórios de IA para interromper temporariamente o treinamento de modelos poderosos!

Participe da petição do FLI ao lado de Yoshua Bengio, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus e mais de 1.000 outras pessoas que assinaram o documento

Um resumo do motivo pelo qual estamos pedindo isso - (1/8)

— Future of Life Institute (@FLIxrisk)

“A IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais. Infelizmente, esse nível de planejamento e gestão não está sendo adotado”, escreveu o instituto.

Lançado em 14 de março, o GPT-4 é a mais recente iteração do chatbot baseado em inteligência artificial da OpenAI. Até o momento, ele passou em alguns dos mais rigorosos exames de ensino médio e direito dos EUA com pontuações que o colocam entre os melhores classificados. Entende-se que a nova versão do chatbot é 10 vezes mais avançada que a versão original do ChatGPT.

Há uma “corrida fora de controle” entre as empresas de IA para desenvolver IA mais poderosa, cujo resultado “ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”, afirmou o FOLI.

URGENTE: Uma petição está circulando clamando por uma PAUSA em todos os principais projetos de desenvolvimento de IA.

Ou seja, vhega de atualizações do ChatGPT e muitas outras aplicações.

Assinado por Elon Musk, Steve Wozniak, o CEO da Stability AI e milhares de outros líderes do setor de tecnologia.

Aqui estão os detalhes

— Lorenzo Green 〰️ (@mrgreen)

A carta alega que as máquinas poderiam potencialmente inundar os canais de informação com “propaganda e falsidade” e também levanta a possibilidade de que as máquinas “automatizem” todas as oportunidades de emprego.

A FOLI levou essas preocupações um passo adiante, sugerindo que o desenvolvimento dos produtos dessas empresas de IA podem levar a humanidade a uma ameaça existencial:

“Devemos desenvolver mentes não humanas que possam eventualmente nos superar em número, ser mais espertas, tornando as nossas mentes obsoletas e nos substituir? Devemos arriscar perder o controle sobre a nossa civilização?”

“Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos” pelo público, acrescentou a carta.

Sentindo um pouco de angústia existencial por causa da IA hoje

—Elon Musk (@elonmusk)

O instituto também concordou com uma declaração recente do fundador da OpenAI, Sam Altman, de que uma revisão independente é necessária antes do treinamento futuros sistemas de IA.

Em uma postagem publicada em 24 de fevereiro no blog oficial da OpenAI, Altman destacou a necessidade de se preparar para robôs de inteligência artificial geral (AGI) e superinteligência artificial (ASI).

Nem todos os especialistas em IA correram para assinar a petição, no entanto. Ben Goertzel, CEO da SingularityNET, explicou em uma resposta a a Gary Marcus, autor de Rebooting.AI, publicada no Twitter que os modelos de aprendizado de linguagem (LLMs) não se tornarão AGIs. Até o momento, argumentou, tem havido poucos desenvolvimentos nesse sentido.

Em vez disso, ele disse que a pesquisa e o desenvolvimento de armas biológicas e nucleares é que devem ser desacelerados:

No geral, a sociedade humana ficará melhor com o GPT-5 do que com o GPT-4 – é melhor ter modelos um pouco mais inteligentes por perto. IAs tirando empregos humanos acabarão sendo uma coisa boa. As alucinações e a banalidade diminuirão e as pessoas aprenderão a contorná-las.

—Ben Goertzel (@bengoertzel)

Além de modelos de aprendizado de linguagem como o ChatGPT, a tecnologia deep fake alimentada por IA foi usada para criar imagens, áudios e vídeos falsos bastante convincentes. A tecnologia também tem sido usada para criar obras de arte geradas por IA, gerando preocupações acerca de possíveis violações das leis de direitos autorais em certos casos.

O CEO da Galaxy Digital, Mike Novogratz, disse recentemente aos investidores que ficou chocado com a quantidade de atenção que os reguladores dos EUA têm dado às criptomoedas, enquanto pouca atenção é dada à inteligência artificial.

“Quando penso em IA, fico chocado ao notar que estamos falando tanto sobre regulamentação de criptomoedas e nada sobre regulamentação de IA. Quero dizer, acho que o governo está completamente equivocado”, opinou ele durante uma teleconferência com acionistas em 28 de março.

O FOLI argumentou que, caso a pausa no desenvolvimento da IA não seja decretada rapidamente, os governos devem intervir:

“Essa pausa deve ser pública e verificável e incluir todos os atores-chave. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória."

LEIA MAIS