A única maneira de combater o uso malicioso da inteligência artificial (IA) pode ser desenvolver continuamente IA mais poderosa e colocá-la nas mãos do governo.

Essa parece ser a conclusão a que uma equipe de pesquisadores chegou em um artigo recentemente publicado intitulado “Poder computacional e a governança da inteligência artificial”.

Cientistas da OpenAI, Cambridge, Oxford e de outras dezenas de universidades e institutos conduziram a pesquisa como um meio de investigar os desafios atuais e futuros envolvidos na governança do uso e desenvolvimento da IA.

Centralização

O principal argumento do artigo gira em torno da ideia de que, aparentemente, a única maneira de controlar quem tem acesso aos sistemas de IA mais poderosos no futuro é controlar o acesso ao hardware necessário para treinar e executar modelos.

Como os pesquisadores colocam:

“Mais precisamente, os formuladores de políticas poderiam usar o poder computacional para facilitar a visibilidade regulatória da IA, alocar recursos para promover resultados benéficos e impor restrições contra o desenvolvimento e uso irresponsável ou malicioso da IA.”

Neste contexto, “poder computacional” refere-se ao hardware fundamental necessário para desenvolver IA, como GPUs e CPUs.

Essencialmente, os pesquisadores estão sugerindo que a melhor maneira de impedir que as pessoas usem a IA para causar danos seria cortá-las na fonte. Isso sugere que os governos precisariam desenvolver sistemas pelos quais monitorar o desenvolvimento, venda e operação de qualquer hardware que seria considerado necessário para o desenvolvimento de IA avançada.

Governança da inteligência artificial

De certa forma, governos ao redor do mundo já estão exercendo a “governança do poder computacional”. Os EUA, por exemplo, restringem a venda de certos modelos de GPU normalmente usados para treinar sistemas de IA para países como a China.

Mas, segundo a pesquisa, realmente limitar a capacidade de atores maliciosos de causar danos com a IA exigirá que os fabricantes construam “interruptores de desligamento” no hardware. Isso poderia dar aos governos a capacidade de conduzir esforços de “execução remota”, como desligar centros de treinamento de IA ilegais.

No entanto, como os pesquisadores observam, “abordagens ingênuas ou mal definidas para a governança do poder computacional carregam riscos significativos em áreas como privacidade, impactos econômicos e centralização do poder”.

Monitorar o uso de hardware nos EUA, por exemplo, poderia entrar em conflito com as orientações recentes da Casa Branca sobre o desenvolvimento de um “esboço para uma declaração de direitos da IA” que diz que os cidadãos têm o direito de proteger seus dados.

Interruptores de desligamento podem ser natimortos

Além dessas preocupações, os pesquisadores também apontam que avanços recentes em treinamento “eficiente em comunicação” podem levar ao uso de poder computacional descentralizado para treinar, construir e executar modelos.

Isso pode tornar cada vez mais difícil para os governos localizar, monitorar e desligar o hardware associado a esforços de treinamento ilegais.

Segundo os pesquisadores, isso pode deixar os governos sem outra escolha a não ser adotar uma postura de corrida armamentista contra o uso ilícito de IA. “A sociedade terá que usar poder computacional mais poderoso, governável, de maneira oportuna e sábia para desenvolver defesas contra os riscos emergentes apresentados pelo poder computacional ingovernável.”

VEJA MAIS: