OpenAI a été fortement mis à jour et il est redevenu plus fort ! L'API a une capacité d'appel de fonction terrifiante, peut gérer des contextes plus longs et le prix a chuté de 75 % !

Le 13 juin, le site officiel d'OpenAI a soudainement publié la dernière mise à jour des capacités de ChatGPT. Les points clés sont les suivants :

  1. Nouvelle fonction : une nouvelle fonctionnalité d'appel de fonction a été ajoutée à l'API Chat Completions, qui permet au modèle d'appeler des fonctions et de générer des objets JSON correspondants en sortie si nécessaire. Cela permet aux développeurs d'obtenir plus précisément des données structurées à partir de modèles, de réaliser la conversion du langage naturel en appels d'API ou en requêtes de base de données, et peut également être utilisé pour extraire des données structurées à partir de texte.

(C'est-à-dire qu'après le réglage fin d'OpenAI, si vous lui parlez avec des mots humains, il peut le reconnaître et le convertir en une fonction pour vous, réalisant davantage la capacité de programmation sans programmation, et il est plus pratique d'obtenir du structure chaotique données structurées)

  1. Mise à jour du modèle : mises à jour des versions gpt-4 et gpt-3.5-turbo plus contrôlables, et une nouvelle version contextuelle 16k de gpt-3.5-turbo, qui peut gérer des textes plus longs que la version 4k standard.

(peut supporter 20 pages de texte !)

  1. Abandon du modèle : annonce du calendrier d'abandon des modèles gpt-3.5-turbo-0301 et gpt-4-0314. Les utilisateurs de ces modèles peuvent choisir de passer au nouveau modèle jusqu'à un certain temps, après quoi l'ancien modèle ne sera plus disponible.

(D'une part, faites attention à ceux qui utilisent encore ces modèles, veuillez suivre le rythme fou d'OpenAI. D'autre part, de nombreuses personnes qui ont comparé les modèles de la version précédente d'OpenAI, OpenAI les a déjà abandonnés..)

  1. Ajustements de prix : le prix du modèle d'intégration le plus avancé a été réduit de 75 % et le prix du jeton d'entrée de gpt-3.5-turbo a été réduit de 25 %.

(Sam Altman a récemment déclaré lors du défilé que le prix continuerait de baisser, et cela s'en vient. Et la baisse de prix est le prix à la cheville du modèle le plus fort. Le dernier prix, par jeton de 1k, est de 0,0001 dollars américains)

OpenAI a également souligné que tous ces modèles continuent de maintenir les garanties de confidentialité et de sécurité des données introduites le 1er mars - les clients possèdent toutes les sorties qu'ils demandent à générer, et leurs données API ne seront pas utilisées pour la formation. Avec ces mises à jour, nous invitons encore plus de personnes sur la liste d'attente à essayer GPT-4, et nous avons hâte de voir quels projets vous construisez avec GPT-4 ! Nous encourageons les commentaires des développeurs pour nous aider à assurer une transition en douceur des mises à jour du modèle.

Ce qui suit est le texte intégral de l'annonce :

Nous avons lancé les modèles gpt-3.5-turbo et gpt-4 plus tôt cette année, et en quelques mois seulement, nous avons vu des développeurs créer des applications incroyables sur ces modèles. Aujourd'hui, nous continuons avec quelques mises à jour passionnantes :

Nouvelle fonctionnalité d'appel de fonction dans l'API Chat Completions

· Versions gpt-4 et gpt-3.5-turbo mises à jour avec une contrôlabilité accrue

· Nouvelle version contextuelle 16k de gpt-3.5-turbo (par rapport à la version 4k standard)

75% de réduction sur le prix de notre modèle d'encastrement à la pointe de la technologie

Réduction de 25 % du prix des jetons d'entrée gpt-3.5-turbo

Calendrier de dépréciation annoncé pour les modèles gpt-3.5-turbo-0301 et gpt-4-0314

Tous ces modèles sont livrés avec les mêmes garanties de confidentialité et de sécurité des données que nous avons lancées le 1er mars : les clients sont propriétaires de toutes les sorties générées par leurs demandes et leurs données API ne sont pas utilisées pour la formation. appel de fonction

Les développeurs peuvent désormais décrire des fonctions à gpt-4-0613 et gpt-3.5-turbo-0613, et faire en sorte que le modèle choisisse intelligemment de générer un objet JSON contenant les arguments pour appeler ces fonctions. Il s'agit d'une nouvelle façon de connecter de manière plus fiable les capacités de GPT avec des outils et des API externes. Ces modèles ont été affinés pour à la fois détecter quand une fonction doit être appelée (en fonction de l'entrée de l'utilisateur) et répondre avec JSON conforme à la signature de la fonction. Les appels de fonction permettent aux développeurs de récupérer de manière plus fiable des données structurées à partir de modèles. Par exemple, les développeurs peuvent :

Créez des chatbots qui répondent aux questions en appelant des outils externes tels que le plugin ChatGPT ;

Transformer une question comme "Demandez à Anya si elle veut du café vendredi prochain" en un appel de fonction comme send_email(to: string, body: string), ou "Quel temps fait-il à Boston en ce moment ?" en get_current _weather( emplacement : chaîne, unité : 'celsius' | 'fahrenheit');

· Convertir le langage naturel en appels d'API ou en requêtes de base de données ;

Convertissez "Qui sont mes dix meilleurs clients ce mois-ci ?" en un appel d'API interne tel que get_customers_by_revenue(start_date: string, end_date: string, limit: int) ou "on Combien de commandes Acme, Inc. a-t-il placé en un mois ?" Utilisez sql_query(query: string) pour convertir en requête SQL ;

Extraire des données structurées du texte ;

· Définissez une fonction appelée extract_people_data(people: [{name: string, birthday: string, location: string}]) pour extraire toutes les mentions de personnes d'un article Wikipédia.

Ces cas d'utilisation sont tous activés par de nouveaux paramètres d'API dans notre endpoint /v1/chat/completions, functions et function_call, qui permettent aux développeurs de décrire des fonctions au modèle via JSON Schema, et éventuellement de lui demander d'appeler des fonctions spécifiques. Veuillez commencer avec nos documents de développement, et si vous voyez des situations où les appels de fonction pourraient être améliorés, veuillez ajouter une évaluation.

exemple d'appel de fonction

Quel temps fait-il à Boston en ce moment ?

étape 1

API OpenAI

Invoquer le modèle avec la fonction et l'entrée de l'utilisateur

étape 2

API tierces

Appelez votre API avec la réponse du modèle

étape 3

API OpenAI

Renvoyez la réponse au modèle pour la résumer Le temps à Boston en ce moment est ensoleillé avec une température de 22 degrés Celsius. Depuis la version alpha du plug-in ChatGPT, nous avons beaucoup appris sur la manière de faire fonctionner ensemble des outils et des modèles de langage en toute sécurité. Cependant, certaines questions de recherche restent ouvertes. Par exemple, une vulnérabilité de preuve de concept illustre comment l'obtention de données non fiables à partir de la sortie d'un outil peut amener le modèle à effectuer des actions inattendues. Nous travaillons dur pour atténuer ces risques et d'autres. Les développeurs peuvent protéger leurs applications en utilisant uniquement les informations provenant d'outils fiables et en incluant des étapes de confirmation de l'utilisateur avant de prendre des mesures qui ont un impact réel, telles que l'envoi d'un e-mail, la publication en ligne ou la réalisation d'un achat.

nouveau modèle

GPT-4

gpt-4-0613 inclut des modèles mis à jour et améliorés, ainsi qu'une fonctionnalité d'appel de fonction.

gpt-4-32k-0613 inclut les mêmes améliorations que gpt-4-0613, plus une longueur de contexte accrue pour une meilleure compréhension des textes plus volumineux.

Avec ces mises à jour, nous inviterons davantage de personnes sur la liste d'attente à essayer GPT-4 dans les semaines à venir, dans le but de supprimer entièrement la liste d'attente pour ce modèle. Merci à tous ceux qui ont été patients, nous avons hâte de voir ce que vous construisez avec GPT-4 !

GPT-3.5 Turbo

gpt-3.5-turbo-0613 inclut les mêmes capacités d'appel de fonction que GPT-4, ainsi qu'un contrôle plus fiable via des messages système, qui permettent tous deux aux développeurs de guider plus efficacement les réponses du modèle.

gpt-3.5-turbo-16k fournit quatre fois la longueur de contexte de gpt-3.5-turbo, mais au double du prix : 0,003 $ par jeton d'entrée de 1 000 et 0,004 $ par jeton de sortie de 1 000. Le contexte 16k signifie que les modèles peuvent désormais être utilisés sur environ 20 pages de texte sont pris en charge dans une seule requête.

obsolescence du modèle

Aujourd'hui, nous allons commencer le processus de mise à niveau et de dépréciation des versions initiales de gpt-4 et gpt-3.5-turbo que nous avons annoncées en mars. Les applications utilisant les noms de modèles stables (gpt-3.5-turbo, gpt-4 et gpt-4-32k) seront automatiquement mises à niveau vers les nouveaux modèles répertoriés ci-dessus le 27 juin. Pour comparer les performances entre les versions du modèle, notre bibliothèque s prend en charge les évaluations publiques et privées pour démontrer comment les modifications du modèle affecteront votre cas d'utilisation.

Les développeurs qui ont besoin de plus de temps pour effectuer la transition peuvent continuer à utiliser l'ancien modèle en spécifiant gpt-3.5-turbo-0301, gpt-4-0314 ou gpt-4-32k-0314 dans le paramètre 'model' de leurs requêtes API . Ces anciens modèles seront toujours accessibles après le 13 septembre, après quoi les demandes spécifiant ces noms de modèles échoueront. Vous pouvez vous tenir au courant des obsolescences de modèles sur notre page des obsolescences de modèles. Il s'agit de la première mise à jour de ces modèles ; à ce titre, nous apprécions les commentaires des développeurs pour nous aider à assurer une transition en douceur.

Baisser le prix

À compter d'aujourd'hui, nous continuons d'améliorer l'efficacité de nos systèmes et répercutons ces économies de coûts sur les développeurs.

Incrustations

text-embedding-ada-002 est notre modèle d'intégration le plus populaire. Aujourd'hui, nous avons réduit son coût de 75 % à 0,0001 $ par 1 000 jetons.

GPT-3.5 Turbo

gpt-3.5-turbo est notre modèle de chat le plus populaire, fournissant le service ChatGPT à des millions d'utilisateurs. Aujourd'hui, nous avons réduit le coût du jeton d'entrée de gpt-3.5-turbo de 25 %. Les développeurs peuvent désormais utiliser ce modèle pour 0,0015 USD par jeton d'entrée de 1K et 0,002 USD par jeton de sortie de 1K, ce qui équivaut à environ 700 pages par dollar.

Le prix de gpt-3.5-turbo-16k sera de 0,003 $ par jeton d'entrée de 1 000 $ et de 0,004 $ par jeton de sortie de 1 000 $.

Les commentaires des développeurs sont la pierre angulaire de l'évolution de notre plate-forme, et nous continuerons d'apporter des améliorations en fonction des suggestions que nous recevons. Nous sommes impatients de voir comment les développeurs utilisent ces derniers modèles et nouvelles fonctionnalités dans leurs applications.

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)