Empresa líder do setor de inteligência artificial (IA) OpenAI anunciou que implementará uma "Estrutura de Preparação" como parte de uma iniciativa que inclui a criação de uma equipe especial para avaliar e prever riscos existencias decorrentes do desenvolvimento de IAs superpoderosas.
Em 18 de dezembro, a empresa publicou uma postagem em seu blog oficial dizendo que a nova "equipe de preparação" será a ponte que conectará as equipes de segurança e de políticas empresariais da OpenAI.
A empresa disse que essas equipes, que desenvolvem um sistema do tipo "controles-e-equilíbrios", ajudarão a proteger a humanidade contra potenciais "riscos catastróficos" representados por modelos de IA cada vez mais poderosos. A OpenAI disse que só implantará novas tecnologias se elas forem consideradas seguras por suas equipes internas.
O esboço prevê que a nova equipe de consultoria seja responsável pela analise os relatórios de segurança, que serão enviados também aos executivos da empresa e ao conselho da OpenAI.
Embora os executivos estejam tecnicamente encarregados de tomar as decisões finais sobre os produtos da empresa, o novo plano permite que a diretoria tenha a última palavra em questões relativas à segurança.
O anúncio ocorre depois que a OpenAI passou por um período de forte turbulência em novembro, com a demissão abrupta e a posterior recondução de Sam Altman ao cargo de CEO. Depois que Altman voltou à empresa, a OpenAI nomeou um novo conselho, que agora inclui Bret Taylor como presidente, além de Larry Summers e Adam D'Angelo.
A OpenAI lançou o ChatGPT publicamente em novembro de 2022 e, desde então, despertou uma onda de interesse em sistemas de IA, mas também há preocupações com os perigos que ela pode representar para a sociedade.
Em julho, as principais empresas desenvolvedoras de IA, incluindo a OpenAI, a Microsoft, o Google e a Anthropic, criaram o Frontier Model Forum, que tem como objetivo monitorar a autorregulação para criação de sistemas de IA de forma responsável.
O presidente dos Estados Unidos, Joe Biden, emitiu uma ordem executiva em outubro que estabeleceu novos padrões de segurança e de implementação para sistemas de IA que deverão ser seguidos por empresas que desenvolvem modelos de alto nível.
Antes da ordem executiva de Biden, desenvolvedores de IA proeminentes, incluindo a OpenAI, foram convidados a comparecer à Casa Branca para se comprometerem a desenvolver modelos de IA seguros e transparentes.
LEIA MAIS