O OpenAI foi bastante atualizado e ficou mais forte novamente! A API tem uma capacidade de chamada de função assustadora, pode lidar com contextos mais longos e o preço caiu 75%!

Em 13 de junho, o site oficial da OpenAI lançou repentinamente a última atualização de capacidade do ChatGPT. Os pontos-chave são os seguintes:

  1. Nova função: Um novo recurso de chamada de função foi adicionado à API de conclusão de bate-papo, que permite que o modelo chame funções e gere objetos JSON correspondentes como saída quando necessário. Isso permite que os desenvolvedores obtenham dados estruturados de modelos com mais precisão, realizem a conversão de linguagem natural para chamadas de API ou consultas de banco de dados e também podem ser usados para extrair dados estruturados de texto.

(Ou seja, após o ajuste fino do OpenAI, se você falar palavras humanas para ele, ele pode reconhecê-lo e convertê-lo em uma função para você, percebendo ainda mais a capacidade de programação sem programação, e é mais conveniente obter do estrutura caótica dados estruturados)

  1. Atualização do modelo: versões atualizadas de gpt-4 e gpt-3.5-turbo mais controláveis e uma nova versão de contexto 16k de gpt-3.5-turbo, que pode lidar com textos mais longos do que a versão 4k padrão.

(pode suportar 20 páginas de texto!)

  1. Descontinuação do modelo: Anunciado o cronograma de descontinuação dos modelos gpt-3.5-turbo-0301 e gpt-4-0314. Os usuários desses modelos podem optar por atualizar para o modelo mais novo até um determinado momento, após o qual o modelo antigo não estará mais disponível.

(Por um lado, preste atenção àqueles que ainda estão usando esses modelos, por favor, acompanhe o ritmo louco do OpenAI. Por outro lado, muitas pessoas que compararam os modelos de versões anteriores do OpenAI, o OpenAI já os abandonou..)

  1. Ajustes de preço: O preço do modelo de incorporação mais avançado foi reduzido em 75% e o preço do token de entrada do gpt-3.5-turbo foi reduzido em 25%.

(Sam Altman disse no desfile recentemente que o preço continuará caindo, e isso está chegando. E a queda de preço é o preço de corte no tornozelo do modelo mais forte. O preço mais recente, por token de 1k, é 0,0001 dólares americanos)

A OpenAI também enfatizou que todos esses modelos continuam a manter as garantias de privacidade e segurança de dados introduzidas em 1º de março - os clientes possuem todas as saídas que solicitam gerar e seus dados de API não serão usados para treinamento. Com essas atualizações, estamos convidando ainda mais pessoas na lista de espera para experimentar o GPT-4 e estamos ansiosos para ver quais projetos você criará com o GPT-4! Incentivamos o feedback do desenvolvedor para nos ajudar a garantir uma transição suave das atualizações do modelo.

O seguinte é o texto completo do anúncio:

Lançamos os modelos gpt-3.5-turbo e gpt-4 no início deste ano e, em apenas alguns meses, vimos desenvolvedores criarem aplicativos incríveis com base nesses modelos. Hoje, estamos acompanhando algumas atualizações interessantes:

Nova funcionalidade de chamada de função na API de conclusões de bate-papo

· Versões gpt-4 e gpt-3.5-turbo atualizadas com maior capacidade de controle

· Nova versão de contexto 16k do gpt-3.5-turbo (vs. versão 4k padrão)

Redução de 75% no preço do nosso modelo de incorporação de última geração

Redução de 25% no preço dos tokens de entrada gpt-3.5-turbo

Cronograma de descontinuação anunciado para os modelos gpt-3.5-turbo-0301 e gpt-4-0314

Todos esses modelos vêm com as mesmas garantias de privacidade e segurança de dados que lançamos em 1º de março - os clientes possuem toda a saída gerada por suas solicitações e seus dados de API não são usados para treinamento. chamada de função

Os desenvolvedores agora podem descrever funções para gpt-4-0613 e gpt-3.5-turbo-0613 e fazer com que o modelo escolha de forma inteligente a saída de um objeto JSON contendo os argumentos para chamar essas funções. Esta é uma nova maneira de conectar de maneira mais confiável os recursos da GPT com ferramentas externas e APIs. Esses modelos foram ajustados para detectar quando uma função precisa ser chamada (dependendo da entrada do usuário) e responder com JSON em conformidade com a assinatura da função. As chamadas de função permitem que os desenvolvedores recuperem dados estruturados de modelos de maneira mais confiável. Por exemplo, os desenvolvedores podem:

Crie chatbots que respondam a perguntas chamando ferramentas externas como o plug-in ChatGPT;

Transformar uma pergunta como "Pergunte a Anya se ela quer café na próxima sexta-feira" em uma chamada de função como send_email(to: string, body: string) ou "Qual é o tempo em Boston agora?" em get_current _weather( localização: string, unidade: 'celsius' | 'fahrenheit');

· Converter linguagem natural em chamadas de API ou consultas de banco de dados;

Converta "Quem são meus dez principais clientes este mês?" em uma chamada de API interna, como get_customers_by_revenue(start_date: string, end_date: string, limit: int) ou "em quantos pedidos a Acme, Inc. colocou em um mês?" Use sql_query(query: string) para converter em consulta SQL;

Extraia dados estruturados de texto;

· Defina uma função chamada extract_people_data(pessoas: [{nome: string, aniversário: string, localização: string}]) para extrair todas as menções de pessoas de um artigo da Wikipédia.

Esses casos de uso são todos ativados por novos parâmetros de API em nosso endpoint /v1/chat/completions, funções e function_call, que permitem aos desenvolvedores descrever funções para o modelo por meio do JSON Schema e, opcionalmente, solicitar que ele chame funções específicas. Comece com nossos documentos de desenvolvedor e, se vir situações em que as chamadas de função podem ser melhoradas, adicione uma avaliação.

exemplo de chamada de função

Como está o tempo em Boston agora?

passo 1

API OpenAI

Invoque o modelo com a função e a entrada do usuário

passo 2

APIs de terceiros

Chame sua API com a resposta do modelo

etapa 3

API OpenAI

Envie a resposta de volta ao modelo para resumir. O clima em Boston agora está ensolarado com uma temperatura de 22 graus Celsius. Desde o lançamento alfa do plug-in ChatGPT, aprendemos muito sobre como fazer ferramentas e modelos de linguagem funcionarem juntos com segurança. No entanto, ainda existem algumas questões de pesquisa em aberto. Por exemplo, uma vulnerabilidade de prova de conceito ilustra como a obtenção de dados não confiáveis da saída de uma ferramenta pode fazer com que o modelo execute ações inesperadas. Estamos trabalhando arduamente para mitigar esses e outros riscos. Os desenvolvedores podem proteger seus aplicativos usando apenas informações de ferramentas confiáveis e incluindo etapas de confirmação do usuário antes de realizar ações que tenham impacto no mundo real, como enviar um e-mail, postar online ou fazer uma compra.

novo modelo

GPT-4

gpt-4-0613 inclui modelos atualizados e aprimorados e funcionalidade de chamada de função.

gpt-4-32k-0613 inclui as mesmas melhorias que gpt-4-0613, além de maior comprimento de contexto para melhor compreensão de textos maiores.

Com essas atualizações, convidaremos mais pessoas na lista de espera para experimentar o GPT-4 nas próximas semanas, com o objetivo de remover totalmente a lista de espera desse modelo. Obrigado a todos que foram pacientes, estamos ansiosos para ver o que vocês construíram com o GPT-4!

GPT-3.5 Turbo

O gpt-3.5-turbo-0613 inclui os mesmos recursos de chamada de função do GPT-4, bem como um controle mais confiável por meio de mensagens do sistema, os quais permitem que os desenvolvedores orientem as respostas do modelo com mais eficiência.

O gpt-3.5-turbo-16k fornece quatro vezes o comprimento de contexto do gpt-3.5-turbo, mas com o dobro do preço: $ 0,003 por 1 K de tokens de entrada e $ 0,004 por 1 K de tokens de saída. O contexto de 16k significa que os modelos agora podem ser usados em cerca de 20 páginas de texto são suportados em uma solicitação.

depreciação do modelo

Hoje iniciaremos o processo de atualização e descontinuação das versões iniciais do gpt-4 e gpt-3.5-turbo que anunciamos em março. Os aplicativos que usam nomes de modelos estáveis (gpt-3.5-turbo, gpt-4 e gpt-4-32k) serão atualizados automaticamente para os novos modelos listados acima em 27 de junho. Para comparar o desempenho entre as versões do modelo, nossa biblioteca oferece suporte a avaliações públicas e privadas para demonstrar como as alterações do modelo afetarão seu caso de uso.

Os desenvolvedores que precisam de mais tempo para fazer a transição podem continuar usando o modelo antigo especificando gpt-3.5-turbo-0301, gpt-4-0314 ou gpt-4-32k-0314 no parâmetro 'model' de suas solicitações de API . Esses modelos antigos ainda estarão acessíveis após 13 de setembro, após o qual as solicitações que especificam esses nomes de modelo falharão. Você pode se manter atualizado sobre as descontinuações de modelos em nossa página de descontinuações de modelos. Esta é a primeira atualização desses modelos; portanto, agradecemos o feedback dos desenvolvedores para nos ajudar a garantir uma transição tranquila.

Abaixe o preço

A partir de hoje, continuamos a melhorar a eficiência de nossos sistemas e repassamos essas economias de custos aos desenvolvedores.

Incorporações

text-embedding-ada-002 é o nosso modelo de incorporação mais popular. Hoje reduzimos seu custo em 75% para $ 0,0001 por 1K tokens.

GPT-3.5 Turbo

gpt-3.5-turbo é o nosso modelo de chat mais popular, fornecendo serviço ChatGPT para milhões de usuários. Hoje reduzimos o custo do token de entrada do gpt-3.5-turbo em 25%. Os desenvolvedores agora podem usar esse modelo por US$ 0,0015 por 1 mil tokens de entrada e US$ 0,002 por 1 mil tokens de saída, o que equivale a cerca de 700 páginas por dólar.

O preço do gpt-3.5-turbo-16k será de US$ 0,003 por 1 mil tokens de entrada e US$ 0,004 por 1 mil tokens de saída.

O feedback do desenvolvedor é a base da evolução de nossa plataforma e continuaremos a fazer melhorias com base nas sugestões que recebemos. Estamos ansiosos para ver como os desenvolvedores usam esses modelos mais recentes e novos recursos em seus aplicativos.

Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate.io
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)