A OpenAI lançou novos modelos, incluindo uma prévia atualizada do modelo GPT-4 Turbo, e reduziu o preço para acesso à interface de programação de aplicações (API) GPT-3.5 Turbo. A empresa também introduziu novas maneiras para os desenvolvedores gerenciarem chaves de API e entenderem o uso da API.
Em uma postagem no blog, a OpenAI disse que o GPT-4 Turbo atualizado “completa tarefas como geração de código de forma mais completa do que o modelo de prévia anterior e tem como objetivo reduzir casos de ‘preguiça’ onde o modelo não completa uma tarefa.”
Apresentando duas atualizações de modelo:
— OpenAI Developers (@OpenAIDevs) 25 de janeiro de 2024
• Prévia atualizada do GPT-4 Turbo, completando tarefas como geração de código de forma mais completa e corrige um bug com codificação UTF-8
• Novo GPT-3.5 Turbo na próxima semana, com preços de entrada reduzidos em 50% e preços de saída reduzidos em 25%https://t.co/mNGcmLLJA8
A OpenAI disse que também está introduzindo um novo modelo GPT-3.5 Turbo, gpt-3.5-turbo-0125, e pela terceira vez no último ano, estará reduzindo preços no GPT-3.5 Turbo para ajudar seus clientes a escalar. Os preços de entrada para o novo modelo foram reduzidos em 50% para US$ 0.0005 por mil tokens, e os preços de saída foram reduzidos em 25% para US$ 0.0015 por mil tokens.
Reclamações surgiram entre os usuários do ChatGPT em dezembro de 2023 sobre o chatbot frequentemente recusando tarefas, culpando a falta de atualizações no GPT-4. Enquanto os usuários do GPT-4, que usa dados disponíveis antes de setembro de 2021, ainda podem experimentar os mesmos problemas de preguiça, o GPT-4 Turbo foi treinado com informações tão recentes quanto abril de 2023.
Relacionado: CEO da OpenAI, Sam Altman, mira financiamento de empreendimento global de chips
A OpenAI introduziu modelos de IA menores conhecidos como embeddings. A OpenAI define embeddings como sequências de números que representam conceitos em conteúdo como linguagem ou código.
Embeddings são uma espécie de ferramenta de IA que ajuda os computadores a entender e usar texto escrito de forma mais eficaz. Eles fazem isso convertendo palavras e frases em um formato que os computadores podem processar. Imagine embeddings como um tradutor que transforma a linguagem humana em um código especial que os computadores podem entender e trabalhar.
Geração aumentada por recuperação é um tipo de IA que, em vez de criar respostas do zero, fornece respostas mais precisas e relevantes. É como ter uma IA que rapidamente consulta um livro de referência em vez de adivinhar uma resposta e diz o que encontra.
Dois novos modelos que usam esses embeddings estão atualmente disponíveis: “text-embedding-3-small” e uma versão mais poderosa chamada “text-embedding-3-large”. O “small” e “large” referem-se à capacidade desses modelos. O modelo grande é como um tradutor mais abrangente — ele pode entender e converter texto de forma mais sofisticada do que o “small”. Esses modelos estão agora disponíveis para uso em aplicações que precisam recuperar e usar informações de forma eficiente.
Em termos mais simples, essas novas ferramentas são como tradutores de computador mais inteligentes e eficientes, ajudando-os a entender melhor a linguagem humana e a encontrar rapidamente as informações necessárias em grandes bases de dados. Isso leva a respostas mais precisas e úteis ao interagir com sistemas de IA.
O GPT-4 da OpenAI tem concorrência de outros modelos de inteligência artificial (IA) como o Gemini do Google. O Gemini superou o GPT-4 em sua capacidade de realizar matemática avançada e codificação especializada. No entanto, alguns argumentaram que os resultados poderiam ser diferentes se o modelo avançado do Gemini fosse testado contra o GPT-4 Turbo.
A OpenAI também planeja introduzir uma maneira de criadores de GPT monetizarem seus sistemas de IA personalizados. Construtores nos EUA serão pagos com base no engajamento do usuário com seus GPTs como primeiro passo. No entanto, a loja GPT será lançada primeiro para usuários com planos pagos do ChatGPT.
VEJA MAIS: