Mais de 2.600 líderes e pesquisadores de tecnologia assinaram uma carta aberta pedindo uma pausa temporária no desenvolvimento da inteligência artificial (IA), temendo “riscos profundos para a sociedade e a humanidade.”
O CEO da Tesla, Elon Musk, o cofundador da Apple, Steve Wozniak, e uma série de CEOs, CTOs e pesquisadores de IA estão entre os signatários da carta, que foi publicada em 22 de março pela instituição de pesquisa baseada nos Estados Unidos Future of Life Institute (FOLI).
O instituto convocou todas as empresas de IA a “pausar imediatamente” o treinamento de sistemas de IA mais poderosos que o GPT-4 por pelo menos seis meses, sob o argumento de que “a competição de inteligência com os humanos pode representar riscos profundos para a sociedade e a humanidade”, entre outras coisas.
We're calling on AI labs to temporarily pause training powerful models!
— Future of Life Institute (@FLIxrisk) March 29, 2023
Join FLI's call alongside Yoshua Bengio, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus & over a 1000 others who've signed: https://t.co/3rJBjDXapc
A short on why we're calling for this - (1/8)
Estamos convocando os laboratórios de IA para interromper temporariamente o treinamento de modelos poderosos!
Participe da petição do FLI ao lado de Yoshua Bengio, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus e mais de 1.000 outras pessoas que assinaram o documento
Um resumo do motivo pelo qual estamos pedindo isso - (1/8)
— Future of Life Institute (@FLIxrisk)
“A IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais. Infelizmente, esse nível de planejamento e gestão não está sendo adotado”, escreveu o instituto.
Lançado em 14 de março, o GPT-4 é a mais recente iteração do chatbot baseado em inteligência artificial da OpenAI. Até o momento, ele passou em alguns dos mais rigorosos exames de ensino médio e direito dos EUA com pontuações que o colocam entre os melhores classificados. Entende-se que a nova versão do chatbot é 10 vezes mais avançada que a versão original do ChatGPT.
Há uma “corrida fora de controle” entre as empresas de IA para desenvolver IA mais poderosa, cujo resultado “ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”, afirmou o FOLI.
BREAKING: A petition is circulating to PAUSE all major AI developments.
— Lorenzo Green 〰️ (@mrgreen) March 29, 2023
e.g. No more ChatGPT upgrades & many others.
Signed by Elon Musk, Steve Wozniak, Stability AI CEO & 1000s of other tech leaders.
Here's the breakdown: pic.twitter.com/jR4Z3sNdDw
URGENTE: Uma petição está circulando clamando por uma PAUSA em todos os principais projetos de desenvolvimento de IA.
Ou seja, vhega de atualizações do ChatGPT e muitas outras aplicações.
Assinado por Elon Musk, Steve Wozniak, o CEO da Stability AI e milhares de outros líderes do setor de tecnologia.
Aqui estão os detalhes
— Lorenzo Green 〰️ (@mrgreen)
A carta alega que as máquinas poderiam potencialmente inundar os canais de informação com “propaganda e falsidade” e também levanta a possibilidade de que as máquinas “automatizem” todas as oportunidades de emprego.
A FOLI levou essas preocupações um passo adiante, sugerindo que o desenvolvimento dos produtos dessas empresas de IA podem levar a humanidade a uma ameaça existencial:
“Devemos desenvolver mentes não humanas que possam eventualmente nos superar em número, ser mais espertas, tornando as nossas mentes obsoletas e nos substituir? Devemos arriscar perder o controle sobre a nossa civilização?”
“Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos” pelo público, acrescentou a carta.
Having a bit of AI existential angst today
— Elon Musk (@elonmusk) February 26, 2023
Sentindo um pouco de angústia existencial por causa da IA hoje
—Elon Musk (@elonmusk)
O instituto também concordou com uma declaração recente do fundador da OpenAI, Sam Altman, de que uma revisão independente é necessária antes do treinamento futuros sistemas de IA.
Em uma postagem publicada em 24 de fevereiro no blog oficial da OpenAI, Altman destacou a necessidade de se preparar para robôs de inteligência artificial geral (AGI) e superinteligência artificial (ASI).
Nem todos os especialistas em IA correram para assinar a petição, no entanto. Ben Goertzel, CEO da SingularityNET, explicou em uma resposta a a Gary Marcus, autor de Rebooting.AI, publicada no Twitter que os modelos de aprendizado de linguagem (LLMs) não se tornarão AGIs. Até o momento, argumentou, tem havido poucos desenvolvimentos nesse sentido.
Em vez disso, ele disse que a pesquisa e o desenvolvimento de armas biológicas e nucleares é que devem ser desacelerados:
On the whole, human society will be better off with GPT-5 than GPT-4 -- better to have slightly smarter models around. AIs taking human jobs will ultimately a good thing. The hallucinations and banality will decrease and folks will learn to work around them.
— Ben Goertzel (@bengoertzel) March 29, 2023
No geral, a sociedade humana ficará melhor com o GPT-5 do que com o GPT-4 – é melhor ter modelos um pouco mais inteligentes por perto. IAs tirando empregos humanos acabarão sendo uma coisa boa. As alucinações e a banalidade diminuirão e as pessoas aprenderão a contorná-las.
—Ben Goertzel (@bengoertzel)
Além de modelos de aprendizado de linguagem como o ChatGPT, a tecnologia deep fake alimentada por IA foi usada para criar imagens, áudios e vídeos falsos bastante convincentes. A tecnologia também tem sido usada para criar obras de arte geradas por IA, gerando preocupações acerca de possíveis violações das leis de direitos autorais em certos casos.
O CEO da Galaxy Digital, Mike Novogratz, disse recentemente aos investidores que ficou chocado com a quantidade de atenção que os reguladores dos EUA têm dado às criptomoedas, enquanto pouca atenção é dada à inteligência artificial.
“Quando penso em IA, fico chocado ao notar que estamos falando tanto sobre regulamentação de criptomoedas e nada sobre regulamentação de IA. Quero dizer, acho que o governo está completamente equivocado”, opinou ele durante uma teleconferência com acionistas em 28 de março.
O FOLI argumentou que, caso a pausa no desenvolvimento da IA não seja decretada rapidamente, os governos devem intervir:
“Essa pausa deve ser pública e verificável e incluir todos os atores-chave. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória."
LEIA MAIS