Le 13 juin 2023 (heure de Pékin), OpenAI a annoncé des mises à jour Pour améliorer les capacités d'intelligence artificielle sur le lieu de travail, OpenAI a annoncé une série de mises à jour de ses modèles révolutionnaires d'IA générative GPT-3.5 Turbo et GPT-4.
Des itérations spécifiques**, y compris l'introduction révolutionnaire de nouvelles capacités d'appel de fonction, une maniabilité améliorée, un contexte étendu pour GPT-3.5 Turbo et une structure de prix révisée, visent à fournir aux développeurs une boîte à outils étendue pour créer des applications d'IA sophistiquées et hautes performances pour répondre aux complexités de l'environnement de travail moderne. **
Ces itérations, y compris l'introduction de nouvelles capacités d'appel de fonction, une capacité de démarrage améliorée, un contexte étendu pour GPT-3.5 Turbo et une structure de prix révisée, visent à fournir aux développeurs une boîte à outils étendue pour créer des applications d'IA complexes et hautes performances qui répondent aux complexités. de l'environnement de travail moderne.
**Résumé précédent : OpenAI pilote tout ? **
Remarque : Les développeurs ne sont pas le seul segment qui bénéficiera des dernières améliorations des modèles GPT d'OpenAI : Nous l'avons vu - Microsoft s'est associé à OpenAI pour apporter des modèles d'IA aux développeurs améliorés avec l'IA générative Des produits populaires comme Bing et Office, Snapchat a lancé son chatbot d'IA générative Mon IA utilisant le modèle GPT d'OpenAI, Salesforce a lancé son premier produit CRM d'IA générative, Einstein GPT, propulsé par le "modèle le plus avancé" d'OpenAI Support, Morgan Stanley a annoncé un partenariat avec OpenAI, devenant l'une des rares sociétés de gestion de patrimoine à avoir accès au dernier modèle GPT-4, HubSpot a développé ChatSpot.ai basé sur OpenAI GPT-4, Stripe a incorporé la technologie OpenAI GPT pour aider à comprendre les clients et réduire la fraude
**Alors, quelles améliorations OpenAI a-t-il apportées à GPT-3.5 Turbo et GPT-4 ? **
OpenAI a annoncé des mises à jour des modèles GPT-3.5 Turbo et GPT-4, notamment l'introduction de nouveaux appels de fonction dans l'API Chat Completions, une manipulation améliorée, un contexte étendu pour GPT-3.5 Turbo et de nouvelles réductions de prix.
mise à jour du produit
API Chat Completions——Nouvelle capacité d'appel de fonction de l'API
Mettre à jour la mise à jour gpt-4 et gpt-3.5-turbo, mettre à jour plus de version du guide
Nouvelle version contextuelle 16k de gpt-3.5-turbo (par rapport à la version 4k standard).
Le coût du dernier modèle d'intégration a été réduit de 75 %.
Le coût du jeton d'entrée de gpt-3.5-turbo est réduit de 25 %.
Annonce officielle du calendrier d'élimination des modèles gpt-3.5-turbo-0301 et gpt-4-0314
Tous les modèles suivront les mêmes garanties standard de confidentialité et de sécurité des données lancées par OpenAI le 1er mars 2023, et les données de l'API client ne seront pas utilisées pour la formation.
Créer un chatbot qui répond aux questions en appelant des outils externes,
Traduire des requêtes en langage naturel en appels de fonction, appels d'API ou requêtes de base de données,
** Extraire des données structurées du texte **
Les nouveaux paramètres de l'API permettent aux développeurs de décrire les fonctions du modèle et exigent que le modèle appelle de manière sélective des fonctions spécifiques
** L'introduction d'appels de fonction ouvre de nouvelles possibilités aux développeurs pour intégrer de manière transparente les modèles GPT avec d'autres API ou outils externes. **
Par exemple, une application de lieu de travail pourrait utiliser cette capacité pour convertir la requête en langage naturel d'un utilisateur en un appel de fonction vers un système CRM ou ERP, rendant l'application plus conviviale et efficace. Bien qu'OpenAI reste préoccupé par les problèmes de sécurité potentiels associés aux données non fiables, il recommande aux développeurs d'obtenir uniquement des informations à partir d'outils de confiance et de protéger leurs applications en incluant des étapes de confirmation de l'utilisateur avant d'effectuer des actions percutantes.
appel de fonction
Les développeurs peuvent désormais décrire des fonctions dans gpt-4-0613 et gpt-3.5-turbo-0613, et laisser le modèle choisir intelligemment de générer un objet JSON contenant des paramètres pour appeler la fonction. De cette façon, les capacités de GPT et des outils externes et Les API sont connectées.
(Cela signifie que le côté application d'origine analyse les résultats de sortie de l'IA et appelle ses propres fonctions. Au lieu de cela, je donne à AI tous les appels possibles et le laisse choisir par lui-même)
Selon les commentaires du développeur et les exigences fonctionnelles, OpenAI permet aux développeurs de décrire les fonctions du modèle mis à jour et de laisser l'IA générer intelligemment des objets JSON contenant ces paramètres fonctionnels, ce qui rend plus fiable la connexion entre les capacités de GPT et les outils et API externes. récupération de données structurées à partir de modèles. La nouvelle fonction appelle ce bloc pour prendre en charge une variété d'applications.
Ces modèles ont été affinés pour à la fois détecter quand une fonction doit être appelée (en fonction de l'entrée de l'utilisateur) et répondre avec un fichier JSON conforme à la signature de la fonction. Les appels de fonction permettent aux développeurs d'obtenir de manière plus fiable des données structurées à partir de modèles.
Par exemple, les développeurs peuvent :
Créez un chatbot qui répond directement aux questions en appelant des outils externes (comme le plugin ChatGPT) : par exemple, une requête du type "envoyer un e-mail à Anya pour savoir si elle veut boire un café vendredi prochain"
Converti en un appel de fonction comme send_email(to : string, body : string),
ou "Quel temps fait-il à Boston ?"
Convertir en get_current_weather(location : string, unit : 'celsius' | 'fahrenheit')
(Note de l'auteur : l'API joue avec les plug-ins et certaines des fonctionnalités de Langchain sont susceptibles d'être remplacées)
Traduisez "Qui sont les 10 meilleurs clients ce mois-ci ?" en appels d'API internes comme
get_customers_by_revenue(start_date: string, end_date: string, limit: int), ou convertir "Combien de commandes Acme, Inc. a-t-il eu le mois dernier ?" directement en instructions SQL, à l'aide de sql_query (chaîne de requête).
Extraire des données structurées du texte :
Définissez une fonction appelée extract_people_data(people: [{name: string, birthday: string, location: string}] pour extraire toutes les personnes mentionnées dans un article de Wikipédia. Ces cas d'utilisation sont fournis par OpenAI's /v1 Les nouveaux paramètres de l'API functions et function_call dans le point de terminaison /chat/completions permettent aux développeurs de décrire des fonctions au modèle via le schéma JSON et éventuellement de lui demander d'appeler une fonction spécifique.
À partir de la documentation du développeur, ajoutez s si vous voyez une situation où l'appel de fonction pourrait être amélioré.
amélioration du modèle
Les nouveaux modèles GPT-4 et GPT-3.5 Turbo incluent un démarrage amélioré et un contexte étendu.
Les développeurs peuvent tirer parti d'une capacité d'amorçage accrue pour concevoir des applications d'IA plus spécifiques à l'organisation ou à la tâche, telles que la génération de rapports commerciaux plus ciblés ou la création de chatbots détaillés et sensibles au contexte dans le service client.
Le GPT-3.5 Turbo-16k publié peut fournir quatre fois la longueur de contexte du GPT-3.5 Turbo standard, prenant en charge jusqu'à 20 pages de texte en une seule requête. Cette capacité contextuelle étendue permet à l'IA de comprendre et de générer des réponses à des corps de texte plus volumineux.
Par exemple, dans les milieux de travail juridiques ou universitaires, où les documents sont souvent volumineux, cette fonctionnalité peut grandement améliorer la capacité d'un modèle à comprendre et à résumer de gros volumes de texte, ce qui rend l'extraction d'informations plus efficace. De même, pour les applications de gestion de projet, cela pourrait permettre à l'IA de traiter et de comprendre l'intégralité du plan de projet en une seule fois, contribuant ainsi à générer des analyses et des prévisions de projet plus perspicaces.
OpenAI a également annoncé l'abandon des versions précédentes de GPT-4 et GPT-3.5 Turbo, qui resteront disponibles jusqu'au 13 septembre. Les développeurs ont la garantie d'une transition en douceur et sont encouragés à fournir des commentaires pour aider à affiner le processus.
Baisser le prix
Au fur et à mesure que le système devient plus efficace, OpenAI répercute les économies sur les développeurs. 75 % de réduction sur le prix d'utilisation du populaire text-embedding-ada-002. De plus, le coût des jetons d'entrée pour le modèle GPT-3.5 Turbo a également été réduit de 25 %.
Combiné à une fonctionnalité améliorée, le coût réduit permettra aux développeurs d'utiliser et d'expérimenter plus facilement ces modèles dans leurs applications.
Continuer à développer le modèle GPT
OpenAI s'engage à améliorer continuellement sa plate-forme en fonction des commentaires des développeurs. Avec les dernières améliorations apportées à ses modèles d'IA générative, OpenAI ouvre de nouvelles possibilités aux développeurs pour créer des applications d'IA innovantes et améliorées pour le lieu de travail. Les nouvelles mises à jour d'API et les modèles GPT offrent aux développeurs des capacités supplémentaires pour créer des applications d'IA mieux adaptées pour gérer les complexités et les spécificités des tâches courantes dans les environnements de travail.
Autres interprétations et spéculations
Le 3 2023, l'auteur a posté un article, tout à l'heure ! L'interprétation d'OpenAI a lancé les plugins ChatGPT
qui mentionne :
**1. Pour les entreprises basées sur une plate-forme, les avantages futurs devraient se limiter à leurs propres données elles-mêmes. Les données sont directement accessibles via l'IA, et les utilisateurs ignorent la conception de l'architecture d'ingénierie au milieu. **
Par exemple, si nous voulons imiter la station B pour développer une station C, traditionnellement, nous devons d'abord examiner la structure commerciale de la station B, puis trouver un architecte pour la cloner à nouveau. Le code source ouvert doit être utilisé, mais , avec l'émergence du plugin ChatGPT, ce formulaire peut devenir une chose du passé, et il peut devenir une méthode appelée leasing commercial de plate-forme à l'avenir pour convertir directement les données aux utilisateurs en une seule étape.
** 2. Open AI, en tant qu'arbitre de l'industrie, lancera directement la compétition. Aussi bien les joueurs que les arbitres. Tout s'est passé si vite. **
Donc, aujourd'hui, j'ajoute quelques réflexions:
** L'essence de Plugin est en fait l'égalité des ressources. OpenAI deviendra le roi du Big Data à l'avenir, et non un fournisseur de services spécifique. L'égalisation des ressources de stock, je pense, est le véritable cœur de ce cycle d'IA. Lorsque nous pensons aux problèmes, nous devons penser à l'accumulation de technologie, et nous ne pouvons pas simplement penser aux problèmes du point de vue du trafic. **
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
OpenAI annonce une mise à jour : des modèles d'IA considérablement améliorés
Le 13 juin 2023 (heure de Pékin), OpenAI a annoncé des mises à jour Pour améliorer les capacités d'intelligence artificielle sur le lieu de travail, OpenAI a annoncé une série de mises à jour de ses modèles révolutionnaires d'IA générative GPT-3.5 Turbo et GPT-4.
Des itérations spécifiques**, y compris l'introduction révolutionnaire de nouvelles capacités d'appel de fonction, une maniabilité améliorée, un contexte étendu pour GPT-3.5 Turbo et une structure de prix révisée, visent à fournir aux développeurs une boîte à outils étendue pour créer des applications d'IA sophistiquées et hautes performances pour répondre aux complexités de l'environnement de travail moderne. **
Ces itérations, y compris l'introduction de nouvelles capacités d'appel de fonction, une capacité de démarrage améliorée, un contexte étendu pour GPT-3.5 Turbo et une structure de prix révisée, visent à fournir aux développeurs une boîte à outils étendue pour créer des applications d'IA complexes et hautes performances qui répondent aux complexités. de l'environnement de travail moderne.
**Résumé précédent : OpenAI pilote tout ? **
Remarque : Les développeurs ne sont pas le seul segment qui bénéficiera des dernières améliorations des modèles GPT d'OpenAI : Nous l'avons vu - Microsoft s'est associé à OpenAI pour apporter des modèles d'IA aux développeurs améliorés avec l'IA générative Des produits populaires comme Bing et Office, Snapchat a lancé son chatbot d'IA générative Mon IA utilisant le modèle GPT d'OpenAI, Salesforce a lancé son premier produit CRM d'IA générative, Einstein GPT, propulsé par le "modèle le plus avancé" d'OpenAI Support, Morgan Stanley a annoncé un partenariat avec OpenAI, devenant l'une des rares sociétés de gestion de patrimoine à avoir accès au dernier modèle GPT-4, HubSpot a développé ChatSpot.ai basé sur OpenAI GPT-4, Stripe a incorporé la technologie OpenAI GPT pour aider à comprendre les clients et réduire la fraude
**Alors, quelles améliorations OpenAI a-t-il apportées à GPT-3.5 Turbo et GPT-4 ? **
OpenAI a annoncé des mises à jour des modèles GPT-3.5 Turbo et GPT-4, notamment l'introduction de nouveaux appels de fonction dans l'API Chat Completions, une manipulation améliorée, un contexte étendu pour GPT-3.5 Turbo et de nouvelles réductions de prix.
mise à jour du produit
Créer un chatbot qui répond aux questions en appelant des outils externes,
Traduire des requêtes en langage naturel en appels de fonction, appels d'API ou requêtes de base de données,
** Extraire des données structurées du texte **
Les nouveaux paramètres de l'API permettent aux développeurs de décrire les fonctions du modèle et exigent que le modèle appelle de manière sélective des fonctions spécifiques
** L'introduction d'appels de fonction ouvre de nouvelles possibilités aux développeurs pour intégrer de manière transparente les modèles GPT avec d'autres API ou outils externes. **
Par exemple, une application de lieu de travail pourrait utiliser cette capacité pour convertir la requête en langage naturel d'un utilisateur en un appel de fonction vers un système CRM ou ERP, rendant l'application plus conviviale et efficace. Bien qu'OpenAI reste préoccupé par les problèmes de sécurité potentiels associés aux données non fiables, il recommande aux développeurs d'obtenir uniquement des informations à partir d'outils de confiance et de protéger leurs applications en incluant des étapes de confirmation de l'utilisateur avant d'effectuer des actions percutantes.
appel de fonction
Les développeurs peuvent désormais décrire des fonctions dans gpt-4-0613 et gpt-3.5-turbo-0613, et laisser le modèle choisir intelligemment de générer un objet JSON contenant des paramètres pour appeler la fonction. De cette façon, les capacités de GPT et des outils externes et Les API sont connectées.
(Cela signifie que le côté application d'origine analyse les résultats de sortie de l'IA et appelle ses propres fonctions. Au lieu de cela, je donne à AI tous les appels possibles et le laisse choisir par lui-même)
Selon les commentaires du développeur et les exigences fonctionnelles, OpenAI permet aux développeurs de décrire les fonctions du modèle mis à jour et de laisser l'IA générer intelligemment des objets JSON contenant ces paramètres fonctionnels, ce qui rend plus fiable la connexion entre les capacités de GPT et les outils et API externes. récupération de données structurées à partir de modèles. La nouvelle fonction appelle ce bloc pour prendre en charge une variété d'applications.
Ces modèles ont été affinés pour à la fois détecter quand une fonction doit être appelée (en fonction de l'entrée de l'utilisateur) et répondre avec un fichier JSON conforme à la signature de la fonction. Les appels de fonction permettent aux développeurs d'obtenir de manière plus fiable des données structurées à partir de modèles.
Par exemple, les développeurs peuvent :
Créez un chatbot qui répond directement aux questions en appelant des outils externes (comme le plugin ChatGPT) : par exemple, une requête du type "envoyer un e-mail à Anya pour savoir si elle veut boire un café vendredi prochain"
Converti en un appel de fonction comme send_email(to : string, body : string),
ou "Quel temps fait-il à Boston ?"
Convertir en get_current_weather(location : string, unit : 'celsius' | 'fahrenheit')
(Note de l'auteur : l'API joue avec les plug-ins et certaines des fonctionnalités de Langchain sont susceptibles d'être remplacées)
Traduisez "Qui sont les 10 meilleurs clients ce mois-ci ?" en appels d'API internes comme
get_customers_by_revenue(start_date: string, end_date: string, limit: int), ou convertir "Combien de commandes Acme, Inc. a-t-il eu le mois dernier ?" directement en instructions SQL, à l'aide de sql_query (chaîne de requête).
Extraire des données structurées du texte :
Définissez une fonction appelée extract_people_data(people: [{name: string, birthday: string, location: string}] pour extraire toutes les personnes mentionnées dans un article de Wikipédia. Ces cas d'utilisation sont fournis par OpenAI's /v1 Les nouveaux paramètres de l'API functions et function_call dans le point de terminaison /chat/completions permettent aux développeurs de décrire des fonctions au modèle via le schéma JSON et éventuellement de lui demander d'appeler une fonction spécifique.
À partir de la documentation du développeur, ajoutez s si vous voyez une situation où l'appel de fonction pourrait être amélioré.
amélioration du modèle
Les nouveaux modèles GPT-4 et GPT-3.5 Turbo incluent un démarrage amélioré et un contexte étendu.
Les développeurs peuvent tirer parti d'une capacité d'amorçage accrue pour concevoir des applications d'IA plus spécifiques à l'organisation ou à la tâche, telles que la génération de rapports commerciaux plus ciblés ou la création de chatbots détaillés et sensibles au contexte dans le service client.
Le GPT-3.5 Turbo-16k publié peut fournir quatre fois la longueur de contexte du GPT-3.5 Turbo standard, prenant en charge jusqu'à 20 pages de texte en une seule requête. Cette capacité contextuelle étendue permet à l'IA de comprendre et de générer des réponses à des corps de texte plus volumineux.
Par exemple, dans les milieux de travail juridiques ou universitaires, où les documents sont souvent volumineux, cette fonctionnalité peut grandement améliorer la capacité d'un modèle à comprendre et à résumer de gros volumes de texte, ce qui rend l'extraction d'informations plus efficace. De même, pour les applications de gestion de projet, cela pourrait permettre à l'IA de traiter et de comprendre l'intégralité du plan de projet en une seule fois, contribuant ainsi à générer des analyses et des prévisions de projet plus perspicaces.
OpenAI a également annoncé l'abandon des versions précédentes de GPT-4 et GPT-3.5 Turbo, qui resteront disponibles jusqu'au 13 septembre. Les développeurs ont la garantie d'une transition en douceur et sont encouragés à fournir des commentaires pour aider à affiner le processus.
Baisser le prix
Au fur et à mesure que le système devient plus efficace, OpenAI répercute les économies sur les développeurs. 75 % de réduction sur le prix d'utilisation du populaire text-embedding-ada-002. De plus, le coût des jetons d'entrée pour le modèle GPT-3.5 Turbo a également été réduit de 25 %.
Combiné à une fonctionnalité améliorée, le coût réduit permettra aux développeurs d'utiliser et d'expérimenter plus facilement ces modèles dans leurs applications.
Continuer à développer le modèle GPT
OpenAI s'engage à améliorer continuellement sa plate-forme en fonction des commentaires des développeurs. Avec les dernières améliorations apportées à ses modèles d'IA générative, OpenAI ouvre de nouvelles possibilités aux développeurs pour créer des applications d'IA innovantes et améliorées pour le lieu de travail. Les nouvelles mises à jour d'API et les modèles GPT offrent aux développeurs des capacités supplémentaires pour créer des applications d'IA mieux adaptées pour gérer les complexités et les spécificités des tâches courantes dans les environnements de travail.
Autres interprétations et spéculations
Le 3 2023, l'auteur a posté un article, tout à l'heure ! L'interprétation d'OpenAI a lancé les plugins ChatGPT
qui mentionne :
**1. Pour les entreprises basées sur une plate-forme, les avantages futurs devraient se limiter à leurs propres données elles-mêmes. Les données sont directement accessibles via l'IA, et les utilisateurs ignorent la conception de l'architecture d'ingénierie au milieu. **
Par exemple, si nous voulons imiter la station B pour développer une station C, traditionnellement, nous devons d'abord examiner la structure commerciale de la station B, puis trouver un architecte pour la cloner à nouveau. Le code source ouvert doit être utilisé, mais , avec l'émergence du plugin ChatGPT, ce formulaire peut devenir une chose du passé, et il peut devenir une méthode appelée leasing commercial de plate-forme à l'avenir pour convertir directement les données aux utilisateurs en une seule étape.
** 2. Open AI, en tant qu'arbitre de l'industrie, lancera directement la compétition. Aussi bien les joueurs que les arbitres. Tout s'est passé si vite. **
Donc, aujourd'hui, j'ajoute quelques réflexions:
** L'essence de Plugin est en fait l'égalité des ressources. OpenAI deviendra le roi du Big Data à l'avenir, et non un fournisseur de services spécifique. L'égalisation des ressources de stock, je pense, est le véritable cœur de ce cycle d'IA. Lorsque nous pensons aux problèmes, nous devons penser à l'accumulation de technologie, et nous ne pouvons pas simplement penser aux problèmes du point de vue du trafic. **