Um grupo de cientistas de inteligência artificial está instando as nações a criar um sistema global de supervisão para prevenir potenciais “resultados catastróficos” caso os humanos percam o controle sobre a IA.
Em uma declaração divulgada em 16 de setembro, um grupo de influentes cientistas de IA levantou preocupações de que a tecnologia que ajudaram a desenvolver poderia causar sérios danos se o controle humano for perdido.
“A perda de controle humano ou o uso malicioso desses sistemas de IA poderia levar a resultados catastróficos para toda a humanidade”, dizia a declaração antes de continuar:
“Infelizmente, ainda não desenvolvemos a ciência necessária para controlar e salvaguardar o uso de tal inteligência avançada.”
Os cientistas concordaram que as nações precisam desenvolver autoridades para detectar e responder a incidentes de IA e riscos catastróficos dentro de suas jurisdições e que um “plano de contingência global” precisa ser desenvolvido.
“A longo prazo, os estados devem desenvolver um regime de governança internacional para prevenir o desenvolvimento de modelos que possam representar riscos catastróficos globais.”
A declaração baseia-se em descobertas do Diálogo Internacional sobre Segurança em IA em Veneza, no início de setembro, o terceiro encontro do tipo organizado pelo grupo de pesquisa sem fins lucrativos Safe AI Forum, dos EUA.
A professora da Universidade Johns Hopkins, Gillian Hadfield, que compartilhou a declaração em um post no X, disse: “Se tivéssemos algum tipo de catástrofe daqui a seis meses, se detectarmos que há modelos que estão começando a se autoaperfeiçoar autonomamente, quem você vai chamar?”
Fonte: Gillian Hadfield
Eles afirmaram que a segurança da IA é reconhecida como um bem público global, exigindo cooperação e governança internacional.
Os desenvolvedores de IA propuseram três processos principais: acordos e instituições de preparação para emergências, uma estrutura de garantia de segurança e pesquisa independente global de segurança e verificação de IA.
A declaração contou com mais de 30 signatários dos Estados Unidos, Canadá, China, Grã-Bretanha, Singapura e outros países. O grupo foi composto por especialistas de instituições de pesquisa de IA líderes e universidades, além de vários vencedores do Prêmio Turing, o equivalente ao Prêmio Nobel da computação.
Os cientistas disseram que o diálogo era necessário devido à redução das trocas científicas entre as superpotências e ao crescente desconforto entre os EUA e a China, o que aumenta a dificuldade de se alcançar um consenso sobre as ameaças da IA.
No início de setembro, os EUA, a UE e o Reino Unido assinaram o primeiro tratado internacional de IA legalmente vinculativo do mundo, priorizando os direitos humanos e a responsabilidade na regulamentação de IA.
No entanto, corporações de tecnologia e executivos disseram que o excesso de regulamentação poderia sufocar a inovação, especialmente na União Europeia.