O CEO da OpenAI, Sam Altman, o diretor de tecnologia Greg Brockman e o cientista líder Ilya Sutskever, recentemente escreveram um post de blog detalhando a posição da OpenAI sobre o desenvolvimento e governança de "superinteligência".

Ideias iniciais para a governança de superinteligência, incluindo a formação de uma organização de supervisão internacional para futuros sistemas de IA muito mais capazes do que qualquer um hoje: https://t.co/9hJ9n2BZo7

- OpenAI (@OpenAI) 22 de maio de 2023

Talvez sem surpresa, a empresa - amplamente aceita como a atual líder da indústria em tecnologias de inteligência artificial (IA) generativa - acredita que seria mais arriscado não desenvolver IA super-humana do que avançar com seus empreendimentos:

 

"Dada a imagem como a vemos agora, é concebível que, dentro dos próximos dez anos, os sistemas de IA excederão o nível de habilidade especializada na maioria dos domínios e realizarão tanta atividade produtiva quanto uma das maiores corporações de hoje."

O potencial dos sistemas de IA para atingir o nível humano (um paradigma frequentemente referido como "AGI", ou inteligência geral artificial) ou, como a OpenAI adverte, para exceder até mesmo as capacidades humanas de nível especializado, permanece amplamente debatido. Muitos especialistas afirmam que está longe de ser inevitável que as máquinas jamais atendam ou excedam nossas próprias habilidades cognitivas.

Parece que os líderes da OpenAI, Altman, Brockman e Sutskever, preferem errar pelo lado da cautela. Sua versão de uma abordagem cautelosa, no entanto, não pede contenção.

O post do blog sugere maior supervisão governamental, envolvendo o público no processo de tomada de decisão e uma colaboração mais forte entre os desenvolvedores e empresas do setor. Esses pontos refletem as respostas que Altman deu em resposta a perguntas de membros do subcomitê do Senado em uma recente audiência no Congresso.

O post do blog também aponta que, de acordo com a OpenAI, seria "intuitivamente arriscado e difícil parar a criação da superinteligência". O post conclui com: "[N]ós temos que acertar."

Ao explicar o aparente paradoxo, os autores sugerem que impedir a criação supostamente inevitável de uma IA superinteligente exigiria um regime global de vigilância. "E mesmo isso", eles escrevem, "não é garantido que funcionará."

Finalmente, os autores parecem concluir que, para desenvolver os controles necessários e os mecanismos de governança para proteger a humanidade de uma IA superinteligente, a OpenAI deve continuar trabalhando em direção à criação de uma IA superinteligente.

Enquanto o debate global sobre exatamente como essas tecnologias e seu desenvolvimento devem ser governados e regulados continua, as comunidades de criptomoedas, blockchain e Web3 permanecem presas em um tipo familiar de limbo regulatório.

A IA permeou todos os setores de tecnologia, e o fintech não é exceção. Com bots de negociação de criptomoedas construídos com base no ChatGPT e na API GPT e inúmeras exchanges implementando soluções de IA em suas plataformas de análise e atendimento ao cliente, quaisquer esforços regulatórios que afetem o desenvolvimento de produtos de IA voltados para o consumidor, como o ChatGPT, poderiam ter um impacto disruptivo em ambas as indústrias.

VEJA MAIS: