Ilya Sutskever, co-fundador e cientista-chefe do braço lucrativo da OpenAI que ajudou brevemente a afastar o CEO Sam Altman no ano passado, está deixando a empresa de inteligência artificial.

“Após quase uma década, tomei a decisão de sair da OpenAI”, escreveu Sutskever em um post do X de 14 de maio, dizendo que iria trabalhar em um projeto “pessoalmente significativo”. Ele acrescentou que estava confiante de que a empresa construiria uma inteligência artificial geral (AGI) que é “segura e benéfica”.

Altman postou no X que Sutskever e a OpenAI “estão se separando” e que o ex-cientista-chefe “tem algo pessoalmente significativo para trabalhar”.

Fonte: Elon Musk

A OpenAI anunciou Jakub Pachocki como seu novo cientista-chefe. Pachocki tem sido diretor de pesquisa da empresa desde 2017 e liderou o desenvolvimento de seu modelo de linguagem grande GPT-4.

Sutskever fez parte de um esforço que viu com sucesso o conselho da OpenAI afastar brevemente Altman como CEO em novembro do ano passado antes que ele fosse posteriormente recontratado para o cargo após reação dos funcionários.

O Information relatou na época que Sutskever — que era um dos seis membros do conselho da organização sem fins lucrativos OpenAI, Inc. — disse aos funcionários que a saída de Altman era o conselho cumprindo seu dever para garantir que a OpenAI “construa uma AGI que beneficie toda a humanidade”.

Sutskever depois escreveu em um post de novembro do X : “Lamento profundamente minha participação nas ações do conselho“.

Depois que Altman foi recontratado, Sutskever renunciou ao conselho da OpenAI e não ficou claro qual era seu papel na empresa, o que gerou o meme "Onde está Ilya?", que especulava qual era sua posição na OpenAI.

AGI é um termo para uma inteligência artificial hipotética que pode realizar as mesmas tarefas que os humanos ou melhor em uma variedade de tarefas.

Altman disse no mês passado que não se importa quanto custa para fazer uma AGI, mesmo que ele gaste US$ 50 bilhões por ano.

Outros, como o co-fundador do Ethereum, Vitalik Buterin, pediram uma abordagem ponderada para o desenvolvimento de uma possível inteligência artificial inteligente, dizendo que ela representa riscos desconhecidos.

Atualização (15 de maio, 5h20 UTC): Este artigo foi atualizado para adicionar informações.