Pesquisadores de inteligência artificial estão preocupados que bots de IA eventualmente dominem a internet e se espalhem como uma espécie invasora digital. Em vez de abordar o problema tentando limitar a proliferação de bots e de conteúdo gerado por IA, uma equipe decidiu ir na direção oposta.

Em um artigo pré-publicado recentemente, dezenas de pesquisadores defendem um sistema pelo qual os humanos precisariam ter sua humanidade verificada pessoalmente por outro humano para obter “credenciais de pessoa”.

A grande ideia parece ser a criação de um sistema em que alguém pudesse provar que é humano sem ter que divulgar sua identidade ou qualquer outra informação adicional. Se isso soa familiar para aqueles na comunidade cripto, é porque a pesquisa é baseada em tecnologias de blockchain de “prova de personalidade”.

Verificação digital

Serviços como Netflix ou Xbox Game Pass, que exigem uma taxa para usar, geralmente dependem das instituições financeiras dos usuários para realizar serviços de verificação. Isso não permite o anonimato, mas para a maioria das pessoas, isso está dentro do esperado. É geralmente considerado parte do custo de fazer negócios.

Outros serviços, como fóruns anônimos, que não podem depender dos pagamentos de um usuário como prova de que são humanos ou, pelo menos, clientes não humanos com bom histórico, precisam tomar medidas para limitar bots e contas duplicadas.

Em agosto de 2024, por exemplo, as proteções do ChatGPT provavelmente impediriam que ele fosse explorado para se inscrever em várias contas gratuitas do Reddit. Algumas IAs podem superar verificações de humanidade do tipo “CAPTCHA”, mas seria necessário um esforço robusto para que uma IA pudesse seguir os passos associados à verificação de um endereço de e-mail e continuar o processo de configuração para abrir uma conta.

No entanto, o principal argumento da equipe — que incluía uma lista de especialistas de empresas como OpenAI, Microsoft e a16z Crypto, além de instituições acadêmicas como Harvard Society of Fellows, Oxford e MIT — era que as limitações atuais só vão durar por algum tempo.

Em questão de anos, talvez, a humanidade possa se deparar com a realidade de que, sem ser capaz de olhar alguém nos olhos, cara a cara, não haveria como determinar se alguém está interagindo com uma pessoa ou não.

Pseudo-anonimato

Os pesquisadores defendem o desenvolvimento de um sistema que designaria certas organizações ou instalações como emissores. Esses emissores empregariam humanos para confirmar a humanidade de um indivíduo. Uma vez verificado, o emissor certificaria as credenciais do indivíduo. Presumivelmente, o emissor seria limitado de rastrear como essas credenciais seriam usadas. Não está claro como um sistema poderia ser robusto contra ciberataques e a ameaça iminente da descriptografia assistida por computação quântica.

No outro extremo, organizações interessadas em fornecer serviços para humanos verificados poderiam optar por emitir contas apenas para humanos com credenciais. Supostamente, isso limitaria todos a uma conta por pessoa e tornaria impossível para bots acessar esses serviços.

De acordo com o artigo, está além do escopo da pesquisa determinar qual método de pseudo-anonimato centralizado seria o mais eficaz, nem a pesquisa aborda os inúmeros problemas potenciais levantados por esse esquema. No entanto, a equipe reconhece esses desafios e lançou um chamado para mais estudos.