compañía también está desarrollando un modelo de IA de próxima generación, GPT-5, que puede ser más sofisticado que sus predecesores. No se comprometió a un cronograma para el lanzamiento, pero el camino hacia AGI requerirá más datos, dinero y chips.
Según el Financial Times, OpenAI planea recibir más financiación de su mayor inversor, Microsoft. Esto se debe a que su CEO, Sam Altman, está avanzando en su visión de crear inteligencia artificial general (AGI, por sus siglas en inglés), un software informático que es tan inteligente como los humanos.
En una entrevista con el Financial Times, Altman dijo que la asociación de la compañía con el CEO de Microsoft, Satya Nadella, "funciona muy bien" y que espera que "se recaude más dinero con el tiempo del gigante tecnológico y otros inversores" para cubrir el alto costo de construir modelos de IA más complejos.
Microsoft invirtió 10.000 millones de dólares en la apertura de la IA a OpenAI a principios de este año como parte de un acuerdo "plurianual" que valora a la empresa con sede en San Francisco en 29.000 millones de dólares, según personas familiarizadas con el asunto.
Cuando se le preguntó si Microsoft continuaría invirtiendo más, Altman dijo: "Espero que sí". Y añadió: "Todavía queda un largo camino por recorrer desde aquí hasta la IA, y hay que construir mucha computación... El costo de la capacitación es enorme".
Altman dijo que "el crecimiento de los ingresos ha sido bueno este año", pero no proporcionó detalles financieros, y que la compañía sigue sin ser rentable debido a los costos de capacitación. Pero dijo que la asociación con Microsoft garantizaría que "todos ganemos dinero con el éxito de los demás y todos estemos felices".
El último indicio de cómo OpenAI pretende construir su modelo de negocio sobre ChatGPT es cuando la compañía anunció un nuevo conjunto de herramientas y actualizó su modelo existente, GPT-4, en el evento inaugural de la Conferencia de Desarrolladores al que asistió Nadella el 6 de noviembre, para que lo utilicen los desarrolladores y las empresas.
Estas herramientas incluyen una versión personalizada de ChatGPT, que se puede ajustar y personalizar para aplicaciones específicas, y la tienda GPT. El objetivo final es compartir los ingresos con los desarrolladores de GPT más populares, utilizando un modelo de negocio similar a la App Store de Apple.
"Ahora, la gente [dice: 'Tienes este laboratorio de investigación, tienes esta API, tienes una asociación con Microsoft, tienes ChatGPT, tienes una tienda de GPT en este momento', pero estos no son realmente nuestros productos", dijo Altman. "Estos son los canales que entran en nuestro único producto (superinteligencia). Supongo que para eso estamos aquí".
Altman dijo que contrató a Brad Lightcap, quien anteriormente trabajó en Dropbox y en la aceleradora de startups Y Combinator, como director de operaciones para hacer crecer su negocio empresarial.
Al mismo tiempo, divide su tiempo entre dos áreas: "cómo construir superinteligencia" y formas de mejorar el poder de cómputo. "Nuestra visión es construir inteligencia artificial general, descubrir cómo hacerla segura... y descubrir los beneficios", dijo.
Hablando sobre el lanzamiento de GPT, dijo que OpenAI está trabajando para construir agentes más autónomos que puedan realizar tareas y acciones, como ejecutar código, realizar pagos, enviar correos electrónicos o presentar reclamos.
"Vamos a hacer que estos agentes sean cada vez más poderosos... A partir de aquí, sus acciones también se volverán cada vez más complejas", dijo. "Creo que el valor comercial de poder hacer eso en todas las categorías es considerable".
Altman dijo que la compañía también está trabajando en GPT-5, la próxima generación de su modelo de inteligencia artificial, aunque no se ha comprometido a un cronograma para su lanzamiento. Esto requerirá más datos, que según Altman provendrán de conjuntos de datos disponibles públicamente en Internet, así como de datos patentados de la compañía.
OpenAI emitió recientemente un llamado a la acción para conjuntos de datos a gran escala de organizaciones que "actualmente no están disponibles públicamente en línea", especialmente para cualquier forma de escritura o conversación de formato largo.
Si bien GPT-5 puede ser más sofisticado que sus predecesores, Altman dice que es técnicamente difícil predecir exactamente qué nuevas características y habilidades podría tener el modelo.
"Para nosotros, es como un divertido juego de adivinanzas", dijo. "Estamos tratando de hacerlo mejor porque creo que es importante anticipar esas capacidades desde una perspectiva de seguridad. Pero no puedo decir con certeza que eso es exactamente lo que GPT-4 no hizo".
Para entrenar sus modelos, OpenAI, como la mayoría de las otras grandes empresas de IA, utiliza el avanzado chip H100 de Nvidia, que se ha convertido en el producto más popular de Silicon Valley en el último año.
Altman dijo que hubo una "severa contracción" a lo largo del año debido a una escasez de suministro de 40.000 dólares por pieza de chips Nvidia. Dijo que su empresa ya había recibido el H100 y espera recibir más pronto, y agregó que "se verá aún mejor el próximo año".
Sin embargo, a medida que otras empresas como Google, Microsoft, AMD e Intel se preparan para lanzar chips de IA, es poco probable que la dependencia de Nvidia dure mucho. "Creo que la magia del capitalismo está trabajando aquí. Mucha gente quiere ser Nvidia en este momento", dijo Altman.
Con el lanzamiento de ChatGPT hace casi un año, OpenAI ya está liderando la carrera para construir IA generativa, con sistemas que pueden crear texto, imágenes, código y otros elementos multimedia en segundos.
Altman dijo que a pesar del éxito de OpenAI en el mercado de consumo, está comprometida a avanzar en la construcción de inteligencia artificial general. El LLM que sustenta ChatGPT es "una de las partes centrales de [la construcción de AGI]... Hay mucho más que eso".
Si bien OpenAI se centra principalmente en los LLM, sus competidores han estado buscando estrategias de investigación alternativas para avanzar en la IA. Altman dice que su equipo cree que el lenguaje es "una gran manera de comprimir la información" y, por lo tanto, podría desarrollar la inteligencia. Cree que empresas como Google y DeepMind se perdieron esto. "[Otras empresas] tienen mucha gente inteligente. Pero no lo hicieron. Aunque creo que lo hemos demostrado con GPT-3, no lo han hecho", dijo.
En última instancia, Altman dice que la "mayor pieza faltante" en la carrera por desarrollar AGI es lo que estos sistemas necesitan para dar un salto fundamental en la comprensión.
"Durante mucho tiempo, lo correcto que Newton hizo fue leer más libros de texto de matemáticas, hablar con profesores y practicar. Eso es lo que hace nuestro modelo actual", Altman cita un ejemplo utilizado anteriormente por un colega.
Pero añadió que Newton nunca habría inventado el cálculo simplemente leyendo geometría o álgebra. "Tampoco lo es nuestro modelo", dijo Altman. "Así que la pregunta es, ¿qué falta para generar nuevas ideas? ... ¿Es conocimiento humano? Creo que eso es lo más importante".
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
CEO de OpenAI: GPT-5 está en desarrollo y planea buscar más apoyo financiero de Microsoft
Fuente del artículo: El poder de la máquina
Según el Financial Times, OpenAI planea recibir más financiación de su mayor inversor, Microsoft. Esto se debe a que su CEO, Sam Altman, está avanzando en su visión de crear inteligencia artificial general (AGI, por sus siglas en inglés), un software informático que es tan inteligente como los humanos.
En una entrevista con el Financial Times, Altman dijo que la asociación de la compañía con el CEO de Microsoft, Satya Nadella, "funciona muy bien" y que espera que "se recaude más dinero con el tiempo del gigante tecnológico y otros inversores" para cubrir el alto costo de construir modelos de IA más complejos.
Microsoft invirtió 10.000 millones de dólares en la apertura de la IA a OpenAI a principios de este año como parte de un acuerdo "plurianual" que valora a la empresa con sede en San Francisco en 29.000 millones de dólares, según personas familiarizadas con el asunto.
Cuando se le preguntó si Microsoft continuaría invirtiendo más, Altman dijo: "Espero que sí". Y añadió: "Todavía queda un largo camino por recorrer desde aquí hasta la IA, y hay que construir mucha computación... El costo de la capacitación es enorme".
Altman dijo que "el crecimiento de los ingresos ha sido bueno este año", pero no proporcionó detalles financieros, y que la compañía sigue sin ser rentable debido a los costos de capacitación. Pero dijo que la asociación con Microsoft garantizaría que "todos ganemos dinero con el éxito de los demás y todos estemos felices".
El último indicio de cómo OpenAI pretende construir su modelo de negocio sobre ChatGPT es cuando la compañía anunció un nuevo conjunto de herramientas y actualizó su modelo existente, GPT-4, en el evento inaugural de la Conferencia de Desarrolladores al que asistió Nadella el 6 de noviembre, para que lo utilicen los desarrolladores y las empresas.
Estas herramientas incluyen una versión personalizada de ChatGPT, que se puede ajustar y personalizar para aplicaciones específicas, y la tienda GPT. El objetivo final es compartir los ingresos con los desarrolladores de GPT más populares, utilizando un modelo de negocio similar a la App Store de Apple.
"Ahora, la gente [dice: 'Tienes este laboratorio de investigación, tienes esta API, tienes una asociación con Microsoft, tienes ChatGPT, tienes una tienda de GPT en este momento', pero estos no son realmente nuestros productos", dijo Altman. "Estos son los canales que entran en nuestro único producto (superinteligencia). Supongo que para eso estamos aquí".
Altman dijo que contrató a Brad Lightcap, quien anteriormente trabajó en Dropbox y en la aceleradora de startups Y Combinator, como director de operaciones para hacer crecer su negocio empresarial.
Al mismo tiempo, divide su tiempo entre dos áreas: "cómo construir superinteligencia" y formas de mejorar el poder de cómputo. "Nuestra visión es construir inteligencia artificial general, descubrir cómo hacerla segura... y descubrir los beneficios", dijo.
Hablando sobre el lanzamiento de GPT, dijo que OpenAI está trabajando para construir agentes más autónomos que puedan realizar tareas y acciones, como ejecutar código, realizar pagos, enviar correos electrónicos o presentar reclamos.
"Vamos a hacer que estos agentes sean cada vez más poderosos... A partir de aquí, sus acciones también se volverán cada vez más complejas", dijo. "Creo que el valor comercial de poder hacer eso en todas las categorías es considerable".
Altman dijo que la compañía también está trabajando en GPT-5, la próxima generación de su modelo de inteligencia artificial, aunque no se ha comprometido a un cronograma para su lanzamiento. Esto requerirá más datos, que según Altman provendrán de conjuntos de datos disponibles públicamente en Internet, así como de datos patentados de la compañía.
OpenAI emitió recientemente un llamado a la acción para conjuntos de datos a gran escala de organizaciones que "actualmente no están disponibles públicamente en línea", especialmente para cualquier forma de escritura o conversación de formato largo.
Si bien GPT-5 puede ser más sofisticado que sus predecesores, Altman dice que es técnicamente difícil predecir exactamente qué nuevas características y habilidades podría tener el modelo.
"Para nosotros, es como un divertido juego de adivinanzas", dijo. "Estamos tratando de hacerlo mejor porque creo que es importante anticipar esas capacidades desde una perspectiva de seguridad. Pero no puedo decir con certeza que eso es exactamente lo que GPT-4 no hizo".
Para entrenar sus modelos, OpenAI, como la mayoría de las otras grandes empresas de IA, utiliza el avanzado chip H100 de Nvidia, que se ha convertido en el producto más popular de Silicon Valley en el último año.
Altman dijo que hubo una "severa contracción" a lo largo del año debido a una escasez de suministro de 40.000 dólares por pieza de chips Nvidia. Dijo que su empresa ya había recibido el H100 y espera recibir más pronto, y agregó que "se verá aún mejor el próximo año".
Sin embargo, a medida que otras empresas como Google, Microsoft, AMD e Intel se preparan para lanzar chips de IA, es poco probable que la dependencia de Nvidia dure mucho. "Creo que la magia del capitalismo está trabajando aquí. Mucha gente quiere ser Nvidia en este momento", dijo Altman.
Con el lanzamiento de ChatGPT hace casi un año, OpenAI ya está liderando la carrera para construir IA generativa, con sistemas que pueden crear texto, imágenes, código y otros elementos multimedia en segundos.
Altman dijo que a pesar del éxito de OpenAI en el mercado de consumo, está comprometida a avanzar en la construcción de inteligencia artificial general. El LLM que sustenta ChatGPT es "una de las partes centrales de [la construcción de AGI]... Hay mucho más que eso".
Si bien OpenAI se centra principalmente en los LLM, sus competidores han estado buscando estrategias de investigación alternativas para avanzar en la IA. Altman dice que su equipo cree que el lenguaje es "una gran manera de comprimir la información" y, por lo tanto, podría desarrollar la inteligencia. Cree que empresas como Google y DeepMind se perdieron esto. "[Otras empresas] tienen mucha gente inteligente. Pero no lo hicieron. Aunque creo que lo hemos demostrado con GPT-3, no lo han hecho", dijo.
En última instancia, Altman dice que la "mayor pieza faltante" en la carrera por desarrollar AGI es lo que estos sistemas necesitan para dar un salto fundamental en la comprensión.
"Durante mucho tiempo, lo correcto que Newton hizo fue leer más libros de texto de matemáticas, hablar con profesores y practicar. Eso es lo que hace nuestro modelo actual", Altman cita un ejemplo utilizado anteriormente por un colega.
Pero añadió que Newton nunca habría inventado el cálculo simplemente leyendo geometría o álgebra. "Tampoco lo es nuestro modelo", dijo Altman. "Así que la pregunta es, ¿qué falta para generar nuevas ideas? ... ¿Es conocimiento humano? Creo que eso es lo más importante".