AI New Intelligence Circle丨Daily Must Read: El chip de IA Nvidia B100 se lanzará el próximo año, Alibaba Intelligent Information Business Group lanzó un modelo grande de quark

Resumen: Alibaba Intelligent Information Business Group lanzó oficialmente un modelo de quark grande de 100 mil millones de parámetros de nivel desarrollado por él mismo, que se aplicará a la búsqueda general, médica y de salud, educación y aprendizaje, oficina en el lugar de trabajo y otros escenarios. Nvidia reveló recientemente que la GPU Blackwell architecture B100 lanzada en 2024 superará a las A100, H100 y H200 en términos de puntos de referencia de rendimiento de inferencia GPT-3 175B, y su rendimiento de IA será más del doble que el de la GPU Hopper H200.

Fuente de la imagen: Generada por Unbounded AI

Últimas noticias:

NVIDIA: B100 se lanzará el próximo año, rendimiento de IA más del doble que H200

Según un informe del "Science and Technology Innovation Board Daily" del 14 de noviembre, Nvidia reveló recientemente que la GPU Blackwell architecture B100 lanzada en 2024 superará a A100, H100 y H200 en términos de rendimiento de rendimiento de inferencia GPT-3 175B, y su rendimiento de IA será más del doble que el de la GPU H200 de arquitectura Hopper. El mercado espera que Nvidia confíe TSMC a las GPU Blackwell OEM con un proceso de 3nm, y Nvidia planea adelantar el tiempo de producción hasta el segundo trimestre de 2024. La GPU Blackwell será el primer acelerador HPC/AI de NVIDIA diseñado con chiplets.

Alibaba Intelligent Information Business Group lanza un modelo grande de quark de 100 mil millones de parámetros

Según un informe de Financial Associated Press del 14 de noviembre, el grupo empresarial de información inteligente de Alibaba lanzó oficialmente un modelo de quark grande de 100 mil millones de parámetros de nivel de nivel completo desarrollado por él mismo, que se aplicará a la búsqueda general, la salud médica, la educación y el aprendizaje, la oficina en el lugar de trabajo y otros escenarios, y la aplicación de quark también se actualizará por completo con la ayuda de este gran modelo.

CEO de OpenAI: El modelo de IA de próxima generación GPT-5 ya está en entrenamiento y necesita más datos

Según un informe de AI New Intelligence del 14 de noviembre, el CEO de OpenAI, Sam Altman, reveló recientemente más sobre los próximos pasos de OpenAI en una entrevista con FT. Altman dijo que la compañía está desarrollando la próxima generación de modelos de IA, GPT-5. Pero no se comprometió a dar a conocer el calendario. Altman dice que esto requerirá más datos para entrenar, que provendrán de conjuntos de datos disponibles públicamente en Internet, así como de datos patentados de la compañía. OpenAI emitió recientemente un llamado para conjuntos de datos a gran escala, especialmente aquellos que "no son de acceso público y fácil en Internet hoy en día", especialmente escritos de formato largo o conversaciones en cualquier formato.

Altman también dijo que para entrenar sus modelos, OpenAI, como la mayoría de las otras grandes empresas de IA, utiliza los avanzados chips H100 de Nvidia. Mencionó que ha habido "serias tensiones" este año debido a la escasez de chips de Nvidia. Sin embargo, a medida que otras empresas como Google, Microsoft, AMD e Intel se preparan para lanzar chips de IA rivales, es posible que la dependencia de Nvidia no dure mucho.

Además, a pesar del éxito de OpenAI como consumidor, Altman dijo que la compañía busca avanzar hacia la construcción de inteligencia artificial general. Argumenta que los grandes modelos de lenguaje (LLM), los modelos que sustentan ChatGPT, son "una de las partes centrales de la construcción de AGI, pero hay muchas otras partes encima". También destacó la importancia del lenguaje como compresión de la información, un factor que cree que empresas como Google DeepMind están pasando por alto.

Google y UC Berkeley lanzan un nuevo enfoque de IA generativa, "Idempotent Generative Network", que puede generar imágenes fotorrealistas en un solo paso

Según un informe de IT House del 14 de noviembre, Google se asoció recientemente con la Universidad de California, Berkeley (UC Berkeley) para desarrollar un nuevo método de IA generativa llamado "Red generativa idempotente (IGN)" que puede reemplazar los modelos de difusión.

Incluyendo las redes generativas adversarias (GAN), los modelos de difusión y los modelos de consistencia publicados por OpenAI en marzo de este año, los modelos de IA generativa convencionales actuales se generan con entradas como ruido aleatorio, bocetos o imágenes de baja resolución o dañadas, asignadas a salidas (generalmente imágenes naturales) correspondientes a una distribución de datos objetivo determinada. En el caso de un modelo de difusión, la distribución de datos de destino se aprende durante el entrenamiento y, a continuación, se realiza la "eliminación de ruido" en varios pasos.

El equipo de investigación de Google ha ideado un nuevo modelo generativo llamado Red de Generación Idempotente (IGN) para generar una imagen adecuada a partir de cualquier forma de entrada, idealmente en un solo paso. El modelo se puede considerar como una especie de "proyector global" que proyecta cualquier dato de entrada en la distribución de datos de destino, a diferencia de otros algoritmos de modelo existentes, y no se limita a una entrada específica.

El modelo grande de código abierto Yi de la empresa de IA de Kai-Fu Lee "Zero One Everything" es acusado de plagiar LLaMA

Según IT Home el 14 de noviembre, Kai-Fu Lee, presidente y director ejecutivo de Sinovation Works, fundó este año la empresa emergente de modelos grandes de IA "Zero One Everything", que ha lanzado dos modelos grandes de código abierto, Yi-34 B y Yi-6 B, afirmando estar completamente abiertos a la investigación académica y a las aplicaciones comerciales gratuitas al mismo tiempo. Sin embargo, en la página de inicio de código abierto Hugging Face de Yi-34 B, el desarrollador ehartford cuestionó que el modelo utiliza la arquitectura de Meta LLaMA, con solo dos nombres de tensor modificados, input_layernorm y post_attention_layernorm.

Además, hoy circula por Internet un círculo de amigos de Jia Yangqing, el ex científico jefe de IA de Alibaba, que dice que "el nuevo modelo de un gran fabricante nacional es exactamente la arquitectura de LLaMA, pero para representar la diferencia, se cambió la nomenclatura en el código de LLaMA a su nombre, y luego se cambió el nombre de varias variables".

Zero One Thing responde a la controversia: El gran modelo desarrollado se basa en la estructura madura de GPT, y se ha trabajado mucho en la comprensión del modelo y el entrenamiento

Según un informe del Science and Technology Innovation Board Daily del 14 de noviembre, el modelo de código abierto de la empresa de IA Zero One Everything de Kai-Fu Lee fue acusada de utilizar la arquitectura LLaMA en su totalidad y solo modificar los nombres de dos tensores. Al respecto, Zero One Everything dijo: GPT es una arquitectura madura reconocida por la industria, y Llama lo resumió en GPT. El diseño estructural del modelo de investigación y desarrollo se basa en la estructura madura de GPT, basándose en los principales logros públicos de la industria, debido a que el desarrollo de la tecnología de modelos grandes aún se encuentra en una etapa muy temprana, la estructura que es consistente con la corriente principal de la industria es más propicia para la adaptación general y la iteración futura. Al mismo tiempo, el equipo de 0100000 World ha trabajado mucho en la comprensión de los modelos y la capacitación, y también continúa explorando los avances esenciales a nivel de estructura de modelos.

Zhang Yueguang, el jefe del producto de la cámara Miao Ya, renunció y la popularidad de las aplicaciones de IA de celebridades de Internet se enfrió

Según un informe de Tech Planet del 13 de noviembre, Zhang Yueguang, el jefe del producto de cámara Miao Ya bajo Ali Da Entertainment, ha dejado su puesto y ha participado en la planificación de los proyectos "Jiwufu" y "Xiuyixi" del Festival de Primavera de Alipay, y ha trabajado en Byte, Ali y otras empresas.

La cámara Miao Ya es un producto de AIGC que está fuera del círculo en el nivel C-end, siempre que cargue más de 20 fotos que contengan rostros, pague 9.9 yuanes y luego elija la plantilla y la forma que desee, puede hacer su propio "clon digital", para obtener un trabajo fotográfico. La cámara Miao Ya "dominó" la lista de productos de aplicación durante un período de tiempo, pero la clasificación posterior cayó por completo. A partir del 13 de noviembre, los últimos datos de Qimai muestran que la lista "social" de iOS de Miao Ya Camera ocupa el puesto 64. En la actualidad, cómo formar una demanda a largo plazo de productos AIGC se ha convertido en un problema difícil a nivel de mercado.

La startup de IA Silo AI lanza el modelo lingüístico de código abierto "Poro" para Europa, que cubre 24 idiomas en la UE

Silo AI, una startup de inteligencia artificial con sede en Helsinki, Finlandia, lanzó esta semana un nuevo modelo de lenguaje grande de código abierto "Poro" que tiene como objetivo impulsar las capacidades de IA multilingüe de los idiomas europeos, informó VentureBeat. Poro es el primer modelo de código abierto en el plan que eventualmente cubrirá las 24 lenguas oficiales de la Unión Europea. Los modelos fueron desarrollados por la Unidad de Inteligencia Generativa SiloGen de Silo AI y el grupo de investigación TurkuNLP de la Universidad de Turku.

Con 34.200 millones de parámetros, el modelo Poro 34B lleva el nombre de la palabra finlandesa que significa "reno". Se entrenó en una partición de un conjunto de datos multilingüe de 21 billones de tokens que abarca inglés, finlandés y lenguajes de programación como Python y Java.

Peter Sarlin, CEO de Silo AI, dijo que Poro fue diseñado para resolver el desafío central de la capacitación con un rendimiento superior para idiomas de bajos recursos en Europa, como el finlandés. Al aprovechar los métodos de entrenamiento entre idiomas, los modelos pueden aprovechar los datos de idiomas con muchos recursos, como el inglés.

Rakuten Group se asocia con OpenAI para lanzar Rakuten AI for Business Platform

El 14 de noviembre, Rakuten Group anunció una cooperación estratégica con OpenAI y lanzó una nueva plataforma de inteligencia artificial, Rakuten AI for Business. Se informa que la plataforma admite una variedad de funciones comerciales esenciales, que incluyen marketing, ventas, atención al cliente, operaciones, planificación estratégica e ingeniería, y actualmente está disponible solo por invitación, con planes para expandir el alcance de los servicios en 2024 y más allá.

Investigación: Las empresas de IA se enfrentan a una crisis de agotamiento de los datos de entrenamiento, los datos de alta calidad se agotarán en 2026

Rita Matulionyte, profesora de derecho de la tecnología de la información en la Universidad de Macquarie en Australia, señaló en un artículo en la revista The Conversation que los investigadores de IA han estado haciendo sonar la alarma sobre la escasez de suministro de datos durante casi un año, según informó Webmaster's House el 14 de noviembre. Según un estudio realizado el año pasado por el grupo de predicción de inteligencia artificial de Epoch AI, las empresas de IA podrían quedarse sin datos de entrenamiento de texto de alta calidad para 2026, mientras que los datos de texto e imagen de baja calidad podrían agotarse entre 2030 y 2060.

Para las empresas de IA hambrientas de datos, el entrenamiento con datos sintéticos generados por modelos de IA puede no ser una solución viable. La investigación ha demostrado que entrenar un modelo de IA para usar contenido generado por IA puede conducir a un efecto de deformidad intrínseca en el modelo, lo que hace que el resultado sea confuso y extraño. Frente a este problema potencial, a menos que existan granjas de contenido humano a gran escala, la solución puede estar en las asociaciones de datos. Esto significa que las empresas o instituciones con abundantes datos de alta calidad llegan a acuerdos con empresas de IA para intercambiar datos a cambio de dinero.

El unicornio tecnológico vietnamita VNG planea lanzar un servicio de IA similar a ChatGPT

La startup vietnamita de juegos VNG planea lanzar un servicio de IA similar a ChatGPT diseñado para usuarios de habla vietnamita, según informó Nikkei Asia el 14 de noviembre. El unicornio tecnológico, respaldado por Tencent y Ant Financial Group de Alibaba, ya tiene una aplicación de chat que es más popular que Facebook en su mercado local, y recientemente ha agregado una función de traducción. VNG dice que el siguiente paso será agregar capacidades generadas por IA que permitirán a los usuarios hacer de todo, desde redactar correos electrónicos hasta encontrar respuestas a consultas.

Las fuentes dicen que OpenAI está tratando de robar el talento de IA de Google con un paquete de compensación de 10 millones de dólares

OpenAI está en una guerra por el talento con Google, que está atrayendo a algunos de los mejores investigadores de Google con paquetes de compensación multimillonarios, así como recursos tecnológicos de primer nivel, como chips aceleradores de IA para ejecutar pruebas, según IT House, citando a The Information.

Lectura recomendada de AIGC:

"¡El chip de entrenamiento de modelo más potente H200 lanzado!Gran memoria de 141G, inferencia de IA de hasta el 90%, también compatible con H100"

Nvidia Lao Huang volvió a explotar con una nueva generación de chips GPUH200. El sitio web oficial decía sin contemplaciones: "La GPU más potente del mundo, construida para IA y supercomputación". Escuché que todas las empresas de IA se quejan de la falta de memoria. Esta vez, la gran memoria es directamente 141GB, que se incrementa directamente en un 76% en comparación con los 80GB del H100. Al ser la primera GPU equipada con memoria HBM3e, el ancho de banda de la memoria también se ha incrementado de 3,35 TB/s a 4,8 TB/s, lo que supone un aumento del 43 %. ¿Qué significa esto para la IA?

"ChatGPT "Grok" de Musk, ¿cómo funciona?

Actualmente, Grok todavía se encuentra en versión beta temprana y solo está disponible para un pequeño número de usuarios en los Estados Unidos, y aquellos que quieran participar también pueden postularse a través del sitio web de xAI, pero en un futuro cercano, Grok estará disponible para todos los usuarios de "X Premium+" en la plataforma X. Entonces, ¿qué tiene de especial Grok en comparación con los asistentes de IA como ChatGPT?

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)