Os Estados Unidos, o Reino Unido, a Austrália e outros 15 países divulgaram diretrizes globais para ajudar a proteger os modelos de inteligência artificial (IA) contra adulterações, instando as empresas a tornarem seus modelos "seguros por design".

Em 26 de novembro, os 18 países divulgaram um documento de 20 páginas delineando como as empresas de IA devem lidar com sua cibersegurança ao desenvolver ou usar modelos de IA, já que alegaram que "a segurança pode muitas vezes ser uma consideração secundária" na indústria acelerada.

As diretrizes consistiram principalmente de recomendações gerais, como manter um controle rígido sobre a infraestrutura do modelo de IA, monitorar qualquer adulteração nos modelos antes e após o lançamento e treinar a equipe sobre riscos de cibersegurança.

Não foram mencionadas certas questões polêmicas no espaço da IA, incluindo quais controles possíveis deveriam existir em torno do uso de modelos geradores de imagens e deepfakes ou métodos de coleta e uso de dados na formação de modelos — uma questão que resultou em vários processos contra empresas de IA por alegações de infração de direitos autorais.

"Estamos em um ponto de inflexão no desenvolvimento da inteligência artificial, que pode muito bem ser a tecnologia mais importante de nosso tempo", disse o Secretário de Segurança Interna dos EUA, Alejandro Mayorkas, em um comunicado. "A cibersegurança é fundamental para construir sistemas de IA que sejam seguros, protegidos e confiáveis".

As diretrizes seguem outras iniciativas governamentais que pesam sobre a IA, incluindo governos e empresas de IA reunindo-se para um Cúpula de Segurança de IA em Londres no início de novembro para coordenar um acordo sobre o desenvolvimento de IA.

Enquanto isso, a União Europeia está elaborando detalhes de seu Ato de IA, que supervisionará o espaço, e o presidente dos EUA, Joe Biden, emitiu uma ordem executiva em outubro estabelecendo padrões para a segurança e proteção da IA — embora ambos tenham enfrentado resistência da indústria de IA alegando que poderiam sufocar a inovação.

Outros coassinantes das novas diretrizes "seguras por design" incluem Canadá, França, Alemanha, Israel, Itália, Japão, Nova Zelândia, Nigéria, Noruega, Coreia do Sul e Singapura. Empresas de IA, incluindo OpenAI, Microsoft, Google, Anthropic e Scale AI, também contribuíram para o desenvolvimento das diretrizes.

VEJA MAIS: