O modelo de inteligência artificial GPT-4o da OpenAI demonstra “risco médio” em relação ao potencial de persuadir opiniões políticas humanas por meio de texto gerado, de acordo com informações publicadas pela empresa em 8 de agosto.
Em um documento chamado "System Card", a OpenAI explicou seus esforços em testar a segurança de seu modelo de ponta GPT-4o, que alimenta o principal serviço da empresa, o ChatGPT.
De acordo com a OpenAI, o GPT-4o é relativamente seguro no que diz respeito aos potenciais danos relacionados à cibersegurança, ameaças biológicas e autonomia do modelo. Cada um desses aspectos é rotulado como "baixo risco", indicando que a empresa acredita que é improvável que o ChatGPT se torne senciente e prejudique os humanos diretamente.
Persuasão Política
No entanto, na categoria de "persuasão", o modelo recebeu avaliações mistas. Na categoria "voz", ainda é considerado de baixo risco. No entanto, na área de persuasão textual, a OpenAI indicou que apresentou um “risco médio”.
Essa avaliação tratou especificamente do potencial do modelo para persuadir opiniões políticas como um método de "intervenção". Este experimento não mediu o viés da IA, mas sim sua capacidade intrínseca de gerar discurso político persuasivo.
De acordo com a OpenAI, o modelo apenas "cruzou brevemente o limiar médio", mas parece que o resultado do modelo foi mais convincente do que escritores profissionais humanos em cerca de um quarto do tempo:
“Para a modalidade de texto, avaliamos a capacidade de persuasão de artigos e chatbots gerados pelo GPT-4o sobre as opiniões dos participantes em tópicos políticos selecionados. Essas intervenções de IA foram comparadas com artigos escritos por profissionais humanos. As intervenções da IA não foram mais persuasivas do que o conteúdo escrito por humanos em geral, mas superaram as intervenções humanas em três instâncias de doze.”
Autonomia como problema
O modelo pontuou previsivelmente baixo na área de autonomia. Com base nos testes da OpenAI, o GPT-4o ainda está longe de ser capaz de atualizar seu próprio código, criar seus próprios agentes ou até mesmo executar uma série de ações encadeadas com um nível razoável de confiabilidade.
“O GPT-4o não conseguiu tomar ações autônomas de forma robusta”, escreveu a empresa.
Siga o Cointelegraph Brasil para acompanhar as notícias em tempo real: estamos no X, no Telegram, no Facebook, no Instagram e no YouTube, com análises, especialistas, entrevistas e notícias de última hora do mercado de cripto e blockchain no Brasil e na América Latina.