¡OpenAI se ha actualizado mucho y se ha fortalecido nuevamente! ¡La API tiene una capacidad de llamada de función aterradora, puede manejar contextos más largos y el precio se ha reducido en un 75%!
El 13 de junio, el sitio web oficial de OpenAI lanzó repentinamente la última actualización de capacidad de ChatGPT. Los puntos clave son los siguientes:
Nueva función: se agregó una nueva función de llamada a la API de finalización de chat, que permite que el modelo llame a funciones y genere los objetos JSON correspondientes como salida cuando sea necesario. Esto permite a los desarrolladores obtener datos estructurados de los modelos con mayor precisión, realizar la conversión del lenguaje natural a llamadas API o consultas de bases de datos, y también se puede usar para extraer datos estructurados del texto.
(Es decir, después del ajuste fino de OpenAI, si le habla con palabras humanas, puede reconocerlo y convertirlo en una función para usted, dándose cuenta aún más de la capacidad de programación sin programación, y es más conveniente obtener de la estructura caótica datos estructurados)
Actualización del modelo: versiones actualizadas de gpt-4 y gpt-3.5-turbo más controlables, y una nueva versión de contexto de 16k de gpt-3.5-turbo, que puede manejar textos más largos que la versión estándar de 4k.
(¡puede soportar 20 páginas de texto!)
Desaprobación del modelo: se anunció el cronograma de desaprobación de los modelos gpt-3.5-turbo-0301 y gpt-4-0314. Los usuarios de estos modelos pueden optar por actualizarse al modelo más nuevo hasta un momento determinado, después del cual el modelo anterior ya no estará disponible.
(Por un lado, presten atención a aquellos que todavía están usando estos modelos, por favor sigan el ritmo loco de OpenAI. Por otro lado, muchas personas que han comparado los modelos de versiones anteriores de OpenAI, OpenAI ya los ha abandonado...)
Ajustes de precios: el precio del modelo integrado más avanzado se ha reducido en un 75 % y el precio del token de entrada de gpt-3.5-turbo se ha reducido en un 25 %.
(Sam Altman dijo recientemente en el desfile que el precio seguirá bajando, y esto está llegando. Y la caída del precio es el precio de corte de tobillo del modelo más fuerte. El precio más reciente, por token de 1k, es de 0,0001 dólares estadounidenses)
OpenAI también enfatizó que todos estos modelos continúan manteniendo las garantías de seguridad y privacidad de datos introducidas el 1 de marzo: los clientes son dueños de todos los resultados que solicitan generar, y sus datos API no se utilizarán para capacitación. Con estas actualizaciones, estamos invitando a más personas en la lista de espera a probar GPT-4, ¡y esperamos ver qué proyectos construyes con GPT-4! Alentamos los comentarios de los desarrolladores para ayudarnos a garantizar una transición sin problemas de las actualizaciones del modelo.
El siguiente es el texto completo del anuncio:
Lanzamos los modelos gpt-3.5-turbo y gpt-4 a principios de este año, y en solo unos meses hemos visto a los desarrolladores crear aplicaciones increíbles sobre estos modelos. Hoy, estamos siguiendo con algunas actualizaciones emocionantes:
Nueva funcionalidad de llamada de función en la API de finalización de chat
· Versiones gpt-4 y gpt-3.5-turbo actualizadas con capacidad de control adicional
· Nueva versión contextual de 16k de gpt-3.5-turbo (frente a la versión estándar de 4k)
Reducción del 75% en el precio de nuestro modelo de empotrar de última generación
Reducción del 25% en el precio de los tokens de entrada gpt-3.5-turbo
Se anunció el cronograma de desuso para los modelos gpt-3.5-turbo-0301 y gpt-4-0314
Todos estos modelos vienen con las mismas garantías de seguridad y privacidad de datos que lanzamos el 1 de marzo: los clientes son dueños de todos los resultados generados por sus solicitudes y sus datos API no se usan para capacitación. Llamada de función
Los desarrolladores ahora pueden describir funciones para gpt-4-0613 y gpt-3.5-turbo-0613, y hacer que el modelo elija inteligentemente generar un objeto JSON que contenga los argumentos para llamar a esas funciones. Esta es una nueva forma de conectar de manera más confiable las capacidades de GPT con herramientas y API externas. Estos modelos se han ajustado para detectar cuándo es necesario llamar a una función (según la entrada del usuario) y responder con JSON que se ajusta a la firma de la función. Las llamadas a funciones permiten a los desarrolladores recuperar datos estructurados de los modelos de manera más confiable. Por ejemplo, los desarrolladores pueden:
Cree chatbots que respondan preguntas llamando a herramientas externas como el complemento ChatGPT;
Convertir una pregunta como "Pregúntale a Anya si quiere café el próximo viernes" en una llamada de función como enviar_email(a: cadena, cuerpo: cadena), o "¿Qué tiempo hace en Boston ahora mismo?" en obtener_actual _tiempo( ubicación: cadena, unidad: 'celsius' | 'fahrenheit');
· Convierte el lenguaje natural en llamadas API o consultas de bases de datos;
Convierta "¿Quiénes son mis diez clientes principales este mes?" en una llamada de API interna como get_customers_by_revenue(start_date: string, end_date: string, limit: int) o "en cuántos pedidos ¿Acme, Inc. colocó en un mes?" Use sql_query(consulta: cadena) para convertir a consulta SQL;
Extraer datos estructurados del texto;
· Define una función llamada extract_people_data(people: [{name: string, birthday: string, location: string}]) para extraer todas las menciones de personas de un artículo de Wikipedia.
Todos estos casos de uso están habilitados por nuevos parámetros de API en nuestro punto final /v1/chat/completions, funciones y function_call, que permiten a los desarrolladores describir funciones para el modelo a través del esquema JSON y, opcionalmente, pedirle que llame a funciones específicas. Comience con nuestros documentos para desarrolladores y, si ve situaciones en las que se podrían mejorar las llamadas a funciones, agregue una evaluación.
Ejemplo de llamada de función
¿Cómo está el clima en Boston en este momento?
paso 1
API de IA abierta
Invocar el modelo con la función y la entrada del usuario
paso 2
API de terceros
Llame a su API con la respuesta del modelo
paso 3
API de IA abierta
Envíe la respuesta al modelo para que la resuma. El clima en Boston en este momento es soleado con una temperatura de 22 grados centígrados. Desde el lanzamiento alfa del complemento ChatGPT, hemos aprendido mucho sobre cómo hacer que las herramientas y los modelos de lenguaje funcionen juntos de manera segura. Sin embargo, todavía hay algunas preguntas de investigación abiertas. Por ejemplo, una vulnerabilidad de prueba de concepto ilustra cómo obtener datos no confiables de la salida de una herramienta puede hacer que el modelo realice acciones inesperadas. Estamos trabajando arduamente para mitigar estos y otros riesgos. Los desarrolladores pueden proteger sus aplicaciones utilizando solo información de herramientas confiables e incluyendo pasos de confirmación del usuario antes de realizar acciones que tengan un impacto en el mundo real, como enviar un correo electrónico, publicar en línea o realizar una compra.
nuevo modelo
GPT-4
gpt-4-0613 incluye modelos actualizados y mejorados, y funcionalidad de llamada de función.
gpt-4-32k-0613 incluye las mismas mejoras que gpt-4-0613, además de una mayor longitud de contexto para una mejor comprensión de textos más extensos.
Con estas actualizaciones, invitaremos a más personas en la lista de espera a probar GPT-4 en las próximas semanas, con el objetivo de eliminar por completo la lista de espera para este modelo. Gracias a todos los que han sido pacientes, ¡esperamos ver lo que construyen con GPT-4!
Turbo GPT-3.5
gpt-3.5-turbo-0613 incluye las mismas capacidades de llamada de funciones que GPT-4, así como un control más confiable a través de mensajes del sistema, lo que permite a los desarrolladores guiar las respuestas del modelo de manera más eficiente.
gpt-3.5-turbo-16k proporciona cuatro veces la longitud de contexto de gpt-3.5-turbo, pero al doble del precio: $0.003 por tokens de entrada de 1K y $0.004 por tokens de salida de 1K. El contexto de 16k significa que los modelos ahora se pueden usar en aproximadamente 20 páginas de texto se admiten en una solicitud.
desaprobación del modelo
Hoy comenzaremos el proceso de actualización y desuso de las versiones iniciales de gpt-4 y gpt-3.5-turbo que anunciamos en marzo. Las aplicaciones que usan los nombres de modelos estables (gpt-3.5-turbo, gpt-4 y gpt-4-32k) se actualizarán automáticamente a los nuevos modelos enumerados anteriormente el 27 de junio. Para comparar el rendimiento entre las versiones del modelo, nuestra biblioteca s admite evaluaciones públicas y privadas para demostrar cómo los cambios del modelo afectarán su caso de uso.
Los desarrolladores que necesiten más tiempo para la transición pueden seguir usando el modelo antiguo especificando gpt-3.5-turbo-0301, gpt-4-0314 o gpt-4-32k-0314 en el parámetro 'modelo' de sus solicitudes de API. Estos modelos antiguos seguirán siendo accesibles después del 13 de septiembre, después de lo cual fallarán las solicitudes que especifican estos nombres de modelo. Puede mantenerse actualizado sobre las obsolescencias de modelos en nuestra página de obsolescencia de modelos. Esta es la primera actualización de estos modelos; como tal, agradecemos los comentarios de los desarrolladores para ayudarnos a garantizar una transición sin problemas.
Bajar el precio
A partir de hoy, continuamos mejorando la eficiencia de nuestros sistemas y trasladando estos ahorros de costos a los desarrolladores.
incrustaciones
text-embedding-ada-002 es nuestro modelo de incrustación más popular. Hoy redujimos su costo en un 75% a $0.0001 por 1K tokens.
Turbo GPT-3.5
gpt-3.5-turbo es nuestro modelo de chat más popular y brinda el servicio ChatGPT a millones de usuarios. Hoy redujimos el costo del token de entrada de gpt-3.5-turbo en un 25 %. Los desarrolladores ahora pueden usar este modelo por $0.0015 por 1K tokens de entrada y $0.002 por 1K tokens de salida, lo que equivale a aproximadamente 700 páginas por dólar.
El precio de gpt-3.5-turbo-16k será de $0.003 por 1K tokens de entrada y $0.004 por 1K tokens de salida.
Los comentarios de los desarrolladores son la piedra angular de la evolución de nuestra plataforma y continuaremos realizando mejoras en función de las sugerencias que recibamos. Esperamos ver cómo los desarrolladores utilizan estos últimos modelos y las nuevas funciones en sus aplicaciones.
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
¡OpenAI se ha actualizado mucho y se ha fortalecido nuevamente! ¡La API tiene una capacidad de llamada de función aterradora, puede manejar contextos más largos y el precio se ha reducido en un 75%!
El 13 de junio, el sitio web oficial de OpenAI lanzó repentinamente la última actualización de capacidad de ChatGPT. Los puntos clave son los siguientes:
OpenAI también enfatizó que todos estos modelos continúan manteniendo las garantías de seguridad y privacidad de datos introducidas el 1 de marzo: los clientes son dueños de todos los resultados que solicitan generar, y sus datos API no se utilizarán para capacitación. Con estas actualizaciones, estamos invitando a más personas en la lista de espera a probar GPT-4, ¡y esperamos ver qué proyectos construyes con GPT-4! Alentamos los comentarios de los desarrolladores para ayudarnos a garantizar una transición sin problemas de las actualizaciones del modelo.
El siguiente es el texto completo del anuncio:
Lanzamos los modelos gpt-3.5-turbo y gpt-4 a principios de este año, y en solo unos meses hemos visto a los desarrolladores crear aplicaciones increíbles sobre estos modelos. Hoy, estamos siguiendo con algunas actualizaciones emocionantes:
Nueva funcionalidad de llamada de función en la API de finalización de chat
· Versiones gpt-4 y gpt-3.5-turbo actualizadas con capacidad de control adicional
· Nueva versión contextual de 16k de gpt-3.5-turbo (frente a la versión estándar de 4k)
Reducción del 75% en el precio de nuestro modelo de empotrar de última generación
Reducción del 25% en el precio de los tokens de entrada gpt-3.5-turbo
Se anunció el cronograma de desuso para los modelos gpt-3.5-turbo-0301 y gpt-4-0314
Todos estos modelos vienen con las mismas garantías de seguridad y privacidad de datos que lanzamos el 1 de marzo: los clientes son dueños de todos los resultados generados por sus solicitudes y sus datos API no se usan para capacitación. Llamada de función
Los desarrolladores ahora pueden describir funciones para gpt-4-0613 y gpt-3.5-turbo-0613, y hacer que el modelo elija inteligentemente generar un objeto JSON que contenga los argumentos para llamar a esas funciones. Esta es una nueva forma de conectar de manera más confiable las capacidades de GPT con herramientas y API externas. Estos modelos se han ajustado para detectar cuándo es necesario llamar a una función (según la entrada del usuario) y responder con JSON que se ajusta a la firma de la función. Las llamadas a funciones permiten a los desarrolladores recuperar datos estructurados de los modelos de manera más confiable. Por ejemplo, los desarrolladores pueden:
Cree chatbots que respondan preguntas llamando a herramientas externas como el complemento ChatGPT;
Convertir una pregunta como "Pregúntale a Anya si quiere café el próximo viernes" en una llamada de función como enviar_email(a: cadena, cuerpo: cadena), o "¿Qué tiempo hace en Boston ahora mismo?" en obtener_actual _tiempo( ubicación: cadena, unidad: 'celsius' | 'fahrenheit');
· Convierte el lenguaje natural en llamadas API o consultas de bases de datos;
Convierta "¿Quiénes son mis diez clientes principales este mes?" en una llamada de API interna como get_customers_by_revenue(start_date: string, end_date: string, limit: int) o "en cuántos pedidos ¿Acme, Inc. colocó en un mes?" Use sql_query(consulta: cadena) para convertir a consulta SQL;
Extraer datos estructurados del texto;
· Define una función llamada extract_people_data(people: [{name: string, birthday: string, location: string}]) para extraer todas las menciones de personas de un artículo de Wikipedia.
Todos estos casos de uso están habilitados por nuevos parámetros de API en nuestro punto final /v1/chat/completions, funciones y function_call, que permiten a los desarrolladores describir funciones para el modelo a través del esquema JSON y, opcionalmente, pedirle que llame a funciones específicas. Comience con nuestros documentos para desarrolladores y, si ve situaciones en las que se podrían mejorar las llamadas a funciones, agregue una evaluación.
Ejemplo de llamada de función
¿Cómo está el clima en Boston en este momento?
API de IA abierta
Invocar el modelo con la función y la entrada del usuario
paso 2
API de terceros
Llame a su API con la respuesta del modelo
paso 3
API de IA abierta
Envíe la respuesta al modelo para que la resuma. El clima en Boston en este momento es soleado con una temperatura de 22 grados centígrados. Desde el lanzamiento alfa del complemento ChatGPT, hemos aprendido mucho sobre cómo hacer que las herramientas y los modelos de lenguaje funcionen juntos de manera segura. Sin embargo, todavía hay algunas preguntas de investigación abiertas. Por ejemplo, una vulnerabilidad de prueba de concepto ilustra cómo obtener datos no confiables de la salida de una herramienta puede hacer que el modelo realice acciones inesperadas. Estamos trabajando arduamente para mitigar estos y otros riesgos. Los desarrolladores pueden proteger sus aplicaciones utilizando solo información de herramientas confiables e incluyendo pasos de confirmación del usuario antes de realizar acciones que tengan un impacto en el mundo real, como enviar un correo electrónico, publicar en línea o realizar una compra.
nuevo modelo
GPT-4
gpt-4-0613 incluye modelos actualizados y mejorados, y funcionalidad de llamada de función.
gpt-4-32k-0613 incluye las mismas mejoras que gpt-4-0613, además de una mayor longitud de contexto para una mejor comprensión de textos más extensos.
Con estas actualizaciones, invitaremos a más personas en la lista de espera a probar GPT-4 en las próximas semanas, con el objetivo de eliminar por completo la lista de espera para este modelo. Gracias a todos los que han sido pacientes, ¡esperamos ver lo que construyen con GPT-4!
Turbo GPT-3.5
gpt-3.5-turbo-0613 incluye las mismas capacidades de llamada de funciones que GPT-4, así como un control más confiable a través de mensajes del sistema, lo que permite a los desarrolladores guiar las respuestas del modelo de manera más eficiente.
gpt-3.5-turbo-16k proporciona cuatro veces la longitud de contexto de gpt-3.5-turbo, pero al doble del precio: $0.003 por tokens de entrada de 1K y $0.004 por tokens de salida de 1K. El contexto de 16k significa que los modelos ahora se pueden usar en aproximadamente 20 páginas de texto se admiten en una solicitud.
desaprobación del modelo
Hoy comenzaremos el proceso de actualización y desuso de las versiones iniciales de gpt-4 y gpt-3.5-turbo que anunciamos en marzo. Las aplicaciones que usan los nombres de modelos estables (gpt-3.5-turbo, gpt-4 y gpt-4-32k) se actualizarán automáticamente a los nuevos modelos enumerados anteriormente el 27 de junio. Para comparar el rendimiento entre las versiones del modelo, nuestra biblioteca s admite evaluaciones públicas y privadas para demostrar cómo los cambios del modelo afectarán su caso de uso.
Los desarrolladores que necesiten más tiempo para la transición pueden seguir usando el modelo antiguo especificando gpt-3.5-turbo-0301, gpt-4-0314 o gpt-4-32k-0314 en el parámetro 'modelo' de sus solicitudes de API. Estos modelos antiguos seguirán siendo accesibles después del 13 de septiembre, después de lo cual fallarán las solicitudes que especifican estos nombres de modelo. Puede mantenerse actualizado sobre las obsolescencias de modelos en nuestra página de obsolescencia de modelos. Esta es la primera actualización de estos modelos; como tal, agradecemos los comentarios de los desarrolladores para ayudarnos a garantizar una transición sin problemas.
Bajar el precio
A partir de hoy, continuamos mejorando la eficiencia de nuestros sistemas y trasladando estos ahorros de costos a los desarrolladores.
incrustaciones
text-embedding-ada-002 es nuestro modelo de incrustación más popular. Hoy redujimos su costo en un 75% a $0.0001 por 1K tokens.
Turbo GPT-3.5
gpt-3.5-turbo es nuestro modelo de chat más popular y brinda el servicio ChatGPT a millones de usuarios. Hoy redujimos el costo del token de entrada de gpt-3.5-turbo en un 25 %. Los desarrolladores ahora pueden usar este modelo por $0.0015 por 1K tokens de entrada y $0.002 por 1K tokens de salida, lo que equivale a aproximadamente 700 páginas por dólar.
El precio de gpt-3.5-turbo-16k será de $0.003 por 1K tokens de entrada y $0.004 por 1K tokens de salida.