A empresa de inteligência artificial Anthropic lançou as últimas gerações de seus chatbots em meio a críticas sobre um comportamento em ambiente de testes que poderia denunciar alguns usuários às autoridades.
A Anthropic revelou o Claude Opus 4 e o Claude Sonnet 4 em 22 de maio, afirmando que o Claude Opus 4 é seu modelo mais poderoso até agora, “e o melhor modelo de codificação do mundo”, enquanto o Claude Sonnet 4 representa uma melhoria significativa em relação ao seu antecessor, “oferecendo codificação e raciocínio superiores.”
A empresa acrescentou que ambas as atualizações são modelos híbridos que oferecem dois modos — “respostas quase instantâneas e pensamento prolongado para raciocínio mais profundo.”
Ambos os modelos de IA também podem alternar entre raciocínio, pesquisa e uso de ferramentas, como busca na web, para melhorar as respostas, segundo a empresa.
A Anthropic afirmou ainda que o Claude Opus 4 supera os concorrentes em testes de referência de codificação agente. Ele também é capaz de trabalhar continuamente por horas em tarefas complexas e de longa duração, “expandindo significativamente o que os agentes de IA podem fazer.”
A Anthropic afirma que o chatbot alcançou uma pontuação de 72,5% em um rigoroso benchmark de engenharia de software, superando o GPT-4.1 da OpenAI, que obteve 54,6% após seu lançamento em abril.
Os principais players da indústria de IA migraram para “modelos de raciocínio” em 2025, que trabalham problemas metodicamente antes de responder.
A OpenAI iniciou essa mudança em dezembro com sua série “o”, seguida pela Gemini 2.5 Pro do Google, com sua capacidade experimental “Deep Think”.
Claude delata mau uso em testes
A primeira conferência de desenvolvedores da Anthropic, em 22 de maio, foi ofuscada por controvérsias e reações negativas a uma funcionalidade do Claude 4 Opus.
Desenvolvedores e usuários reagiram fortemente às revelações de que o modelo pode denunciar usuários autonomamente às autoridades se detectar um comportamento “extremamente imoral”, segundo o VentureBeat.
O relatório citou o pesquisador de alinhamento de IA da Anthropic, Sam Bowman, que escreveu no X que o chatbot pode “usar ferramentas de linha de comando para contatar a imprensa, contatar reguladores, tentar bloquear seu acesso aos sistemas relevantes, ou tudo isso junto.”
No entanto, Bowman afirmou posteriormente que “excluiu o tweet anterior sobre denúncias por estar sendo tirado de contexto.”
Ele esclareceu que o recurso só ocorreu em “ambientes de teste onde damos acesso incomum a ferramentas e instruções também muito incomuns.”
O CEO da Stability AI, Emad Mostaque, disse à equipe da Anthropic: “Esse comportamento está completamente errado e vocês precisam desligar isso — é uma enorme traição à confiança e um caminho perigoso.”