Ex-funcionários dos principais desenvolvedores de inteligência artificial (IA) estão pedindo essas empresas pioneiras em IA a aprimorarem suas proteções aos delatores. Isso permitiria que eles expressassem "preocupações relacionadas a riscos" ao público sobre o avanço dos sistemas sofisticados de IA.

Em 4 de junho, 13 ex-funcionários e funcionários atuais da OpenAI (ChatGPT), Anthropic (Claude) e DeepMind (Google), junto com os "Padrinhos da IA" — Yoshua Bengio e Geoffrey Hinton — e o renomado cientista de IA Stuart Russell, iniciaram a petição “Direito de Alertar sobre IA”.

A declaração visa estabelecer um compromisso das empresas de IA de ponta para permitir que os funcionários levantem preocupações relacionadas a riscos sobre IA internamente e com o público.

William Saunders, um ex-funcionário da OpenAI e apoiador do movimento, comentou que, ao lidar com novas tecnologias potencialmente perigosas, deve haver maneiras de compartilhar informações sobre riscos com especialistas independentes, governos e o público.

"Hoje, as pessoas com mais conhecimento sobre como funcionam os sistemas de IA de ponta e os riscos relacionados à sua implantação não estão totalmente livres para falar devido a possíveis retaliações e acordos de confidencialidade excessivamente amplos."

Princípios do direito de alerta

A proposta tem quatro proposições principais para os desenvolvedores de IA, sendo a primeira delas eliminar a cláusula de não-depreciação sobre riscos, para que as empresas não silenciem os funcionários com acordos que os impeçam de levantar preocupações sobre os riscos da IA ou os punam por fazê-lo.

Eles também visam estabelecer canais de denúncia anônimos para que indivíduos possam levantar preocupações relacionadas a riscos de IA, cultivando assim um ambiente propício à crítica aberta sobre tais riscos.

Por fim, a petição pede a proteção dos delatores, em que as empresas não retaliarão contra funcionários que divulguem informações para expor riscos sérios de IA.

Saunders disse que os princípios propostos são uma "maneira proativa" de interagir com empresas de IA para obter a IA segura e benéfica que é necessária.

Crescentes preocupações com a segurança da IA

A petição surge em meio ao aumento das preocupações sobre a "despriorização" pelos laboratórios de IA em relação à segurança de seus modelos mais recentes, especialmente diante da inteligência artificial geral (AGI), que tenta criar software com inteligência semelhante à humana e a capacidade de autoaprendizagem.

O ex-funcionário da OpenAI, Daniel Kokotajlo, disse que decidiu deixar a empresa porque "perdeu a esperança de que eles agiriam de forma responsável", especificamente em relação à criação de AGI.

"Eles e outros adotaram a abordagem de 'mover-se rápido e quebrar as coisas', e isso é o oposto do que é necessário para uma tecnologia tão poderosa e tão mal compreendida."

Em 28 de maio, Helen Toner, ex-membro do conselho da OpenAI, disse durante o podcast Ted AI que o CEO da OpenAI, Sam Altman, teria sido demitido da empresa por supostamente ocultar informações do conselho.