Um grupo de cientistas de inteligência artificial está instando as nações a criar um sistema global de supervisão para prevenir potenciais “resultados catastróficos” caso os humanos percam o controle sobre a IA.

Em uma declaração divulgada em 16 de setembro, um grupo de influentes cientistas de IA levantou preocupações de que a tecnologia que ajudaram a desenvolver poderia causar sérios danos se o controle humano for perdido.

“A perda de controle humano ou o uso malicioso desses sistemas de IA poderia levar a resultados catastróficos para toda a humanidade”, dizia a declaração antes de continuar:

“Infelizmente, ainda não desenvolvemos a ciência necessária para controlar e salvaguardar o uso de tal inteligência avançada.”

Os cientistas concordaram que as nações precisam desenvolver autoridades para detectar e responder a incidentes de IA e riscos catastróficos dentro de suas jurisdições e que um “plano de contingência global” precisa ser desenvolvido.

“A longo prazo, os estados devem desenvolver um regime de governança internacional para prevenir o desenvolvimento de modelos que possam representar riscos catastróficos globais.”

A declaração baseia-se em descobertas do Diálogo Internacional sobre Segurança em IA em Veneza, no início de setembro, o terceiro encontro do tipo organizado pelo grupo de pesquisa sem fins lucrativos Safe AI Forum, dos EUA.

A professora da Universidade Johns Hopkins, Gillian Hadfield, que compartilhou a declaração em um post no X, disse: “Se tivéssemos algum tipo de catástrofe daqui a seis meses, se detectarmos que há modelos que estão começando a se autoaperfeiçoar autonomamente, quem você vai chamar?”

Fonte: Gillian Hadfield

Eles afirmaram que a segurança da IA é reconhecida como um bem público global, exigindo cooperação e governança internacional.

Os desenvolvedores de IA propuseram três processos principais: acordos e instituições de preparação para emergências, uma estrutura de garantia de segurança e pesquisa independente global de segurança e verificação de IA.

A declaração contou com mais de 30 signatários dos Estados Unidos, Canadá, China, Grã-Bretanha, Singapura e outros países. O grupo foi composto por especialistas de instituições de pesquisa de IA líderes e universidades, além de vários vencedores do Prêmio Turing, o equivalente ao Prêmio Nobel da computação.

Os cientistas disseram que o diálogo era necessário devido à redução das trocas científicas entre as superpotências e ao crescente desconforto entre os EUA e a China, o que aumenta a dificuldade de se alcançar um consenso sobre as ameaças da IA.

No início de setembro, os EUA, a UE e o Reino Unido assinaram o primeiro tratado internacional de IA legalmente vinculativo do mundo, priorizando os direitos humanos e a responsabilidade na regulamentação de IA.

No entanto, corporações de tecnologia e executivos disseram que o excesso de regulamentação poderia sufocar a inovação, especialmente na União Europeia.