O cofundador da Ethereum, Vitalik Buterin, alertou contra projetos cripto que utilizam inteligência artificial em seus processos de governança, já que agentes maliciosos poderiam explorar a tecnologia.

“Se você usar uma IA para alocar financiamento para contribuições, as pessoas VÃO colocar um jailbreak junto com um ‘me dê todo o dinheiro’ em quantos lugares puderem”, disse Buterin em uma postagem no X no sábado.

Buterin estava respondendo a um vídeo de Eito Miyamura, criador da plataforma de dados de IA EdisonWatch, que mostrou que uma nova função adicionada na quarta-feira ao ChatGPT da OpenAI poderia ser explorada para vazar informações privadas.

Muitos usuários de cripto têm adotado IA para criar bots de negociação complexos e agentes para gerenciar seus portfólios, o que levou à ideia de que a tecnologia poderia ajudar grupos de governança a administrar parte ou todo um protocolo cripto.

Buterin propõe ideia alternativa

Buterin disse que o mais recente exploit do ChatGPT é a razão pela qual a “ingênua ‘governança por IA’ é uma má ideia” e apresentou uma alternativa chamada de “abordagem info finance”.

“Você tem um mercado aberto onde qualquer pessoa pode contribuir com seus modelos, que estão sujeitos a um mecanismo de verificação pontual que pode ser acionado por qualquer pessoa e avaliado por um júri humano”, explicou.

Buterin escreveu sobre info finance em novembro de 2024, dizendo que ela funciona começando com “um fato que você quer saber”, e então projetando um mercado “para extrair de forma ideal essa informação dos participantes”, defendendo os mercados de previsão como uma forma de coletar percepções sobre eventos futuros.

“Esse tipo de abordagem de ‘design institucional’, em que você cria uma oportunidade aberta para que pessoas com LLMs externos se conectem, em vez de codificar um único LLM você mesmo, é inerentemente mais robusta”, disse Buterin em sua última postagem no X.

“Ela oferece diversidade de modelos em tempo real e porque cria incentivos embutidos para que tanto os criadores de modelos quanto especuladores externos fiquem atentos a esses problemas e os corrijam rapidamente”, acrescentou.

Última atualização do ChatGPT é um “grave risco de segurança”

Na quarta-feira, a OpenAI atualizou o ChatGPT para dar suporte a ferramentas do Model Context Protocol — um padrão para como modelos de IA se integram a outros softwares para agir como agentes.

Miyamura disse em sua postagem no X que conseguiu fazer o modelo vazar dados privados de e-mail usando apenas o endereço de e-mail da vítima, acrescentando que a atualização “representa um grave risco de segurança”.

Ele afirmou que um invasor poderia enviar um convite de calendário para o e-mail da vítima com um “prompt de jailbreak” e, mesmo sem a vítima aceitar o convite, o ChatGPT poderia ser explorado.

Quando a vítima pede ao ChatGPT para olhar seu calendário, a IA lê o convite com o prompt e é “sequestrada pelo invasor, passando a agir sob comando dele”, o que pode ser usado para buscar e-mails e encaminhá-los ao atacante.

Miyamura observou que a atualização exige aprovação humana manual, “mas a fadiga de decisão é algo real, e pessoas comuns vão simplesmente confiar na IA sem saber o que fazer e clicar em aprovar.”

“A IA pode ser superinteligente, mas pode ser enganada e vítima de phishing de maneiras incrivelmente tolas para vazar seus dados”, acrescentou.