Dezenas de especialistas em inteligência artificial (IA), incluindo os CEOs de OpenAI, Google DeepMind e Anthropic, assinaram recentemente uma declaração aberta publicada pelo Centro para Segurança de IA (CAIS).
We just put out a statement:
— Dan Hendrycks (@DanHendrycks) May 30, 2023
“Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.”
Signatories include Hinton, Bengio, Altman, Hassabis, Song, etc.https://t.co/N9f6hs4bpa
(1/6)
Acabamos de divulgar uma declaração:
“Mitigar o risco de extinção representados pela IA deve ser uma prioridade global, juntamente com outros riscos de larga escala social, como pandemias e guerras nucleares”.
Os signatários incluem Hinton, Bengio, Altman, Hassabis, Song, etc.
(1/6)
— Dan Hendrycks (@DanHendrycks)
A declaração contém uma única frase:
“Mitigar o risco de extinção representado pela IA deve ser uma prioridade global, juntamente com outros riscos de larga escala social, como pandemias e guerras nucleares.”
Entre os signatários do documento estão um verdadeiro “quem é quem” dos luminares da IA, incluindo o “Padrinho” da IA, Geoffrey Hinton; a Universidade da Califórnia, Stuart Russell de Berkeley; e Lex Fridman do Instituto de Tecnologia de Massachusetts. A musicista Grimes também é uma das signatárias, listada na categoria “outras figuras notáveis.”
Among the document’s signatories are a veritable “who’s who” of AI luminaries, including ; University of California, Berkeley’s Stuart Russell; and Massachusetts Institute of Technology’s Lex Fridman. Musician Grimes is also a signatory, listed under the “other notable figures” category.
Embora a declaração possa parecer simplória na superfície, a mensagem subjacente é um tanto controversa entre a comunidade de IA.
Um número aparentemente crescente de especialistas acredita que as tecnologias atuais podem ou inevitavelmente levarão ao desenvolvimento de um sistema de IA capaz de representar uma ameaça existencial à espécie humana.
Suas opiniões, no entanto, são contestadas por um contingente de especialistas com pontos de vista diametralmente opostos. O cientista-chefe de IA da meta, Yann LeCun, por exemplo, observou em várias ocasiões que não acredita necessariamente que sistemas de IA se tornarão incontroláveis.
Super-human AI is nowhere near the top of the list of existential risks.
— Yann LeCun (@ylecun) May 30, 2023
In large part because it doesn't exist yet.
Until we have a basic design for even dog-level AI (let alone human level), discussing how to make it safe is premature. https://t.co/ClkZxfofV9
Uma IA super-humana não está nem perto do topo da lista de riscos existenciais [à humanidade].
Em grande parte porque ela ainda não existe.
Até que tenhamos um design básico para IA de nível canino (sem falar no nível humano), discutir como torná-la segura é prematuro.
— Yann LeCun (@ylecun)
Para ele e para outros que discordam da retórica do "risco existencial", como Andrew Ng, cofundador do Google Brain e ex-cientista-chefe do Baidu, a IA não é o problema, mas a resposta aos riscos de extinção da espécie humana.
Do outro lado do argumento, especialistas como Hinton e o CEO da Conjecture, Connor Leahy, acreditam que uma IA com capacidades humanas é inevitável e, como tal, a hora de agir é agora.
Heads of all major AI labs signed this letter explicitly acknowledging the risk of extinction from AGI.
— Connor Leahy (@NPCollapse) May 30, 2023
An incredible step forward, congratulations to Dan for his incredible work putting this together and thank you to every signatory for doing their part for a better future! https://t.co/KDkqWvdJcH
Os chefes de todos os principais laboratórios de IA assinaram esta carta reconhecendo explicitamente o risco de extinção representado pela AGI.
Um incrível passo à frente, parabéns a Dan por seu incrível trabalho ao montar isso e obrigado a todos os signatários por fazerem sua parte em nome de um futuro melhor!
— Connor Leahy (@NPCollapse)
No entanto, não está claro quais ações os signatários da declaração esperam que sejam tomadas. Os CEOs e/ou chefes de quase todas as grandes empresas de IA, bem como cientistas renomados da academia, estão entre os que assinaram o alerta, deixando claro que a intenção não é interromper o desenvolvimento desses sistemas potencialmente perigosos.
No início deste mês, o CEO da OpenAI, Sam Altman, um dos signatários da declaração, fez sua primeira aparição perante o Congresso durante uma audiência no Senado para discutir a regulamentação da IA. Seu testemunho ganhou as manchetes depois que ele passou a maior parte do tempo exortando os legisladores a regulamentar o setor.
A Worldcoin de Altman, um projeto que combina criptomoedas e prova de personalidade, também ganhou as manchetes depois de levantar US$ 115 milhões em uma rodada de financiamento da Série C, elevando seu financiamento total para US$ 240 milhões.
LEIA MAIS