Um grupo de artistas e testadores iniciais da ferramenta de texto para vídeo Sora, ainda não lançada pela OpenAI, vazou o acesso ao novo modelo em um ato de protesto após alegarem terem sido usados para "pesquisa e desenvolvimento não remunerados".

O grupo publicou o que parece ser uma versão front-end da Sora na plataforma de desenvolvedores de IA HuggingFace em 26 de novembro, permitindo que qualquer pessoa utilizasse a ferramenta para criar — embora a OpenAI aparentemente tenha intervindo para derrubá-la.

Tecnologia, OpenAI

Artistas e testadores beta afirmam terem sido explorados pela OpenAI em seu modelo de texto para vídeo, Sora. Fonte: Hugging Face

O vazamento foi realizado por um grupo de artistas e testadores beta que operam coletivamente sob o nome de usuário “PR-Puppets.”

“Recebemos acesso à Sora com a promessa de sermos testadores iniciais, red teamers e parceiros criativos. No entanto, acreditamos que fomos atraídos para uma espécie de ‘lavagem artística’ para dizer ao mundo que Sora é uma ferramenta útil para artistas,” afirmou o grupo.

De acordo com a carta aberta publicada junto ao vazamento da Sora, o grupo alegou que “centenas de artistas” forneceram trabalho não remunerado através de testes de bugs, feedback e trabalhos experimentais, apenas para descobrirem que foram excluídos de qualquer esperança de compensação ou reconhecimento por parte da OpenAI.

Os artistas afirmam que a OpenAI — atualmente avaliada em US$ 157 bilhões — estava impedindo injustamente artistas e colaboradores de serem pagos por testes, feedback e desenvolvimento.

A ferramenta ficou online por várias horas antes de ser retirada, e vários usuários rapidamente publicaram exemplos de vídeos gerados pela versão vazada da ferramenta na plataforma X.

“É impressionante como lida bem com braços e pernas,” escreveu o diretor de cinema Huang Lu em um post na plataforma X, acompanhado de um clipe da ferramenta vazada.

A versão vazada da Sora parece ser uma variante mais rápida, “turbo”, de acordo com o código descoberto por usuários da plataforma X, com linhas de código adicionais também sugerindo certos controles sobre personalização e estilos de vídeo a serem gerados no futuro.

Sora foi primeiramente revelada pela OpenAI em 16 de fevereiro, surpreendendo usuários da plataforma X com o nível de conteúdo de vídeo hiper-realista que podia ser gerado a partir de prompts simples.

De acordo com um relatório de 17 de fevereiro do The Information, a OpenAI vinha treinando a Sora em “centenas de milhões de horas” de clipes de vídeo para cobrir uma ampla gama de estilos e melhorar a qualidade geral do conteúdo gerado pela IA.

A OpenAI não respondeu imediatamente a um pedido de comentário.