Al reducir drásticamente la tasa de inactividad de la potencia de cómputo de la GPU, Enfabrica recibió una ronda de financiación de 125 millones de dólares de NVIDIA
La falta de potencia de cálculo es actualmente un problema al que se enfrenta toda la industria de la IA, justo la semana pasada, después del Devday de OpenAI, debido a una serie de nuevas funciones que atrajeron a un gran número de usuarios a probar, las API de ChatGPT y GPT experimentaron una amplia gama de tiempos de inactividad a largo plazo, y Sam Altman también anunció la suspensión del registro de nuevos miembros Plus.
En la actualidad, en el campo de la potencia de cómputo de IA, la GPU de NVIDIA ocupa una posición casi monopólica, ya sea A100, H100 o el recién lanzado H200, es el punto de referencia de los chips de computación de IA, pero su GPU enfrenta un problema: el clúster de potencia de cómputo de la tarjeta gráfica implementado en el centro de datos no podrá proporcionar datos lo suficientemente rápido porque la red de conexión no puede proporcionar datos rápidamente y no puede ejecutarse a plena carga parte del tiempo, lo que resulta en un desperdicio de potencia de cómputo, lo que a su vez aumenta el costo total de propiedad (TCO).
Una startup llamada Enfabrica utiliza chips de red desarrollados específicamente para centros de datos de IA para aumentar la utilización de la potencia de cálculo de los nodos de rendimiento de la GPU en un 50% y reducir el coste de la potencia de cálculo de la inferencia y el entrenamiento de la IA.
Enfabrica cerró una ronda de financiación Serie B de 125 millones de dólares liderada por Atreides Management con NVIDIA como inversor estratégico, junto con la participación de IAG Capital Partners, Liberty Global Ventures, Valor Equity Partners, Infinitum Partners y Alumni Ventures, su primer inversor, Sutter Hill Ventures, también sigue sumando pesos.
Esta ronda de financiación aumentó la valoración de la empresa en más de 5 veces con respecto a la ronda anterior, lo que elevó su financiación acumulada a 148 millones de dólares. Gavin Baker, fundador de Atreides Management, se une a la Junta Directiva para ayudar con el crecimiento y la dirección estratégica de la empresa.
Con el objetivo de abordar los principales desafíos en el campo de la potencia de cómputo de la IA, dos veteranos en el campo de los chips unen fuerzas para iniciar un negocio
Según la última investigación de mercado de 650 Group, un instituto de investigación centrado en las cadenas de suministro de computación en la nube, es probable que el tamaño de la demanda de computación de IA/ML crezca de 8 a 275 veces cada 24 meses, y los servidores basados en IA/ML crecerán del 1% del mercado a casi el 20% en la próxima década.
Sin embargo, debido a las características de la computación de IA, el gran movimiento de datos y metadatos entre los elementos de computación distribuida ha formado un cuello de botella. Dylan Patel, analista de SemiAnalysis, señala que la potencia de cálculo de punto flotante (FLOP) de cada generación de chips/paquetes está creciendo más rápido que la velocidad de entrada y salida de datos. Y este desajuste está empeorando.
Enfabrica fue creada por Rochan Sankar y Shrijeet Mukherjee. Rochan Sankar es un ex director de ingeniería en el gigante de chips Broadcom, y Shrijeet Mukherjee fue responsable de la plataforma y arquitectura de red en Google, y tienen un profundo conocimiento y experiencia en chips y arquitectura de red.
En términos de estructura organizativa, Sankar es el CEO, Mukherjee es el director de desarrollo y el equipo central de Enfabrica incluye ingenieros senior de Cisco, Meta, Intel y otras empresas en los campos de IA, redes y chips.
Enfabrica se dirige a la creciente demanda de infraestructura informática "paralela, acelerada y heterogénea" (es decir, GPU) en la industria de la IA.
"El mayor desafío que plantea la actual revolución de la IA es la expansión de la infraestructura de IA, tanto en términos de costo computacional como de sostenibilidad computacional.
Los chips de red tradicionales, como los conmutadores, tienen dificultades para mantenerse al día con las demandas de movimiento de datos de las cargas de trabajo de IA modernas, lo que puede crear cuellos de botella para las demandas computacionales, como el entrenamiento de IA o el ajuste fino de IA, que requieren grandes conjuntos de datos durante el proceso de entrenamiento.
Existe una necesidad urgente en el espacio informático de IA de cerrar la brecha entre las crecientes demandas de cargas de trabajo de IA y el costo, la eficiencia, la sostenibilidad y la facilidad de escalado generales de los clústeres informáticos. "
Enfabrica presenta dispositivos y soluciones Accelerated Compute Fabric Switch (ACF-S) que complementan las GPU, las CPU y los aceleradores para abordar problemas críticos de redes, E/S y escalado de memoria en clústeres de IA y computación de alto rendimiento de centros de datos. Reduce el costo de cómputo de las GPU de los centros de datos y los clústeres de computación acelerada en un 50 %, expande la memoria 50 veces y reduce el costo de cómputo de la inferencia de modelos grandes en aproximadamente un 50 % en el mismo punto de rendimiento, logrando una reducción en el costo total de propiedad (TCO).
Según Dell'Oro Group, las inversiones en infraestructura de IA permitirán que los gastos de capital de los centros de datos superen los 500.000 millones de dólares en 2027. Al mismo tiempo, según el pronóstico de IDC, se espera que la inversión en hardware en IA en un sentido amplio crezca a una tasa compuesta anual del 20,5% en los próximos cinco años.
Se espera que el mercado de semiconductores conectados para centros de datos se duplique de casi 12.500 millones de dólares en 2022 a casi 25.000 millones de dólares en 2027.
Gavin Baker, que se une a la Junta Directiva de Enfabrica, es CIO y Socio Director de Atreides Management, donde ha invertido y formado parte de las juntas directivas de empresas como Nutanix, Jet.com, AppNexus, Dataminr, Cloudflare y SpaceX.
En lo que respecta a la infraestructura informática de la IA, habla de varias áreas importantes de mejora: "La combinación de un almacenamiento más rápido, una mejor red de back-end (especialmente Enfabrica) y la óptica lineal conectable/coempaquetada ahora emergente y la integración mejorada de CPU/GPU (GraceHopper de NVIDIA, MI300 de AMD y Dojo de Tesla) ha derribado el muro de la memoria , lo que mejorará aún más el retorno de la inversión de la formación, tanto reduciendo directamente el coste de la formación como aumentando indirectamente el margen de beneficio y reduciendo el coste de la inferencia de las siguientes maneras.
En resumen, las arquitecturas con una ventaja en "computación útil por unidad de energía" ganarán, y nos estamos moviendo rápidamente hacia una computación más útil por unidad de energía. "
Ayudando a los clústeres de cómputo de GPU NVIDIA a romper el "muro de la memoria"
En el campo de la computación acelerada por IA, la "barrera de la memoria" es un problema real, que se refiere a la brecha cada vez mayor entre el rendimiento del procesamiento y el ancho de banda de la memoria necesario para ofrecer ese rendimiento.
En comparación con la computación tradicional con CPU, la computación con GPU, que se usa comúnmente en IA, es más seria en este sentido, porque las GPU tienen más núcleos, mayor rendimiento de procesamiento y una gran demanda de datos.
Los datos utilizados por la IA deben organizarse y almacenarse primero en la memoria antes de que puedan ser procesados por la GPU. Proporcionar la memoria, el ancho de banda y la capacidad necesarios para la IA es una cuestión urgente.
Para abordar este problema, ya se pueden aprovechar varias tecnologías clave: arquitecturas de almacenamiento en caché y niveles de rendimiento/capacidad de memoria que se han utilizado anteriormente en CPU y computación en clúster distribuida, tecnología de red de acceso directo a memoria remota (RDMA) que permite sistemas de IA extendidos y el estándar de interfaz Compute Express Link (CXL) ampliamente reconocido y adoptado en la industria.
La solución de Enfabrica incorpora tecnologías clave como el desacoplamiento CXL.mem, la organización en niveles de rendimiento/capacidad y las redes RDMA para lograr una jerarquía de memoria escalable, de gran ancho de banda, alta capacidad y limitada por la latencia para servir a cualquier clúster de computación de IA a gran escala.
Su primer chip, llamado convertidor ACF (Accelerated Compute Fabric), permite que los grupos de potencia de cómputo de GPU se conecten directamente a decenas de terabytes de grupos DRAM CXL.mem locales con una latencia extremadamente baja.
Específicamente, ACF impulsa aún más la organización en niveles de memoria para permitir el acceso de gran ancho de banda a petabytes de DRAM distribuidos en clústeres de computación y el resto del centro de datos a través de puertos de red de 800 GbE. A continuación, se crea un almacén de datos jerárquico con memoria cercana, memoria cercana y lejana, y memoria lejana de red para la computación acelerada, y hay límites de latencia estrictos en cada nivel de memoria. Con la ayuda de ACF, las GPU NVIDIA que realizan el procesamiento de datos pueden extraer datos de múltiples lugares diferentes sin experimentar barreras de velocidad.
La solución de Enfabrica, llamada ACF-S, consta de múltiples chips ACF con nodos de red de infraestructura de IA de 8 Tbps con interfaces 800G Ethernet, PCIe Gen 5 y CXL 2.0+, que pueden reducir el consumo de energía de E/S hasta en un 50% (ahorrando 2 kilovatios por rack) en comparación con los sistemas NVIDIA DGX-H100 y los sistemas Meta Grand Teton con ocho GPU NVIDIA H100.
"ACF-S es una solución convergente que elimina la necesidad de E/S de servidor y chips de red tradicionales y dispares, como conmutadores de red a nivel de rack, controladores de interfaz de red de servidor y conmutadores PCIe. Rochan Sankar explicó.
Los dispositivos ACF-S permiten a las empresas que se ocupan de tareas de inferencia de IA utilizar el menor número posible de GPU, CPU y otros aceleradores de IA. Esto se debe a que ACF-S es capaz de hacer un uso más eficiente del hardware existente moviendo grandes cantidades de datos rápidamente.
Además, las soluciones de Enfabrica se pueden utilizar no solo para la inferencia de IA a gran escala, sino también para el entrenamiento de IA, así como para casos de uso no relacionados con la IA, como bases de datos y computación en malla.
Enfabrica planea vender chips y soluciones a los constructores de sistemas (proveedores de nube, operadores de centros de datos) en lugar de construir el sistema en sí. Sankar reveló que Enfabrica encaja profundamente con el ecosistema de NVIDIA, pero también planean trabajar con más empresas de computación de IA diferentes.
"ACF-S es neutral sobre el tipo y la marca de los procesadores de IA utilizados para la computación de IA, así como el modelo exacto implementado, lo que permite la construcción de infraestructura de IA en múltiples casos de uso diferentes y admite múltiples proveedores de procesadores sin bloqueo de tecnología patentada", dijo. "
Más rápido y con menor consumo de energía, una nueva generación de sistemas de potencia informática de IA está tomando forma
Apenas un año después del lanzamiento del H100, NVIDIA lanzó el H200, lo que demuestra su urgencia por mantener su posición de liderazgo en el campo de la potencia informática de la IA. Debido a la explosión de la IA generativa en el último año, sus competidores también han lanzado potentes productos informáticos de IA, ya sean los chips de la serie MI300 de AMD o los chips Maia de Microsoft que se comparan con el H100.
El poder de cómputo de la IA es una industria intensiva en tecnología y concentrada en capital, frente a la "lucha de hadas" de los gigantes, ¿cómo pueden sobrevivir las nuevas empresas de computación de IA?
El enfoque de d-Matrix se centra en la inferencia de IA, y los chips de inferencia de IA lanzados son más rápidos y eficientes energéticamente que productos similares de NVIDIA. Como parte importante del sistema informático de IA, Enfabrica ayuda a las GPU de NVIDIA (y otros chips informáticos de IA) a romper el "muro de la memoria", reducir la potencia informática inactiva y mejorar la tasa de utilización del sistema informático en su conjunto.
Los sistemas informáticos de IA, como todos los sistemas informáticos, tienen dos factores importantes, la velocidad y el consumo de energía. Aunque la computación de IA a gran escala (ya sea de entrenamiento o inferencia) está a cargo de clústeres de potencia informática, una velocidad de cálculo más rápida y un menor consumo de energía siguen siendo la dirección de la industria en su conjunto.
Las GPU de NVIDIA tienen una clara ventaja en la dirección de velocidades de cómputo más rápidas, mientras que empresas como Enfabrica están presionando para reducir el consumo de energía.
Como dice Rochan Sankar, fundador de Enfabrica: "Para que la computación de IA sea realmente omnipresente, la curva de costos debe bajar". La clave es si la potencia de cálculo de la GPU es mejor y se utiliza de forma más eficiente. "
Obviamente, la inversión de NVIDIA en Enfabrica también se basa en esta lógica, y a medida que la tecnología de Enfabrica mejora aún más la utilización de la energía de la GPU de NVIDIA, se espera que su posición de liderazgo en la industria se solidifique aún más.
Sin embargo, ante esta necesidad obvia y urgente, Enfabrica no es la única en la industria, el gigante de la industria Cisco también ha lanzado las series de hardware de red de IA Silicon One G200 y G202, y Broadcom también está trabajando en este campo. Enfabrica quiere seguir creciendo y todavía se enfrenta a la competencia.
SI LA INDUSTRIA DE LA IA EN EL EXTRANJERO SE HA ENFRENTADO A UNA ESCASEZ TEMPORAL DE POTENCIA INFORMÁTICA, ENTONCES LA INDUSTRIA DE LA IA DE CHINA TIENE QUE ENFRENTARSE A UNA ESCASEZ A LARGO PLAZO DE POTENCIA INFORMÁTICA DE IA, Y CON LA GPU DE NIVDIA AÚN MÁS RESTRINGIDA, LA INDUSTRIA TIENE UNA FUERTE DEMANDA DE PRODUCTOS INFORMÁTICOS DE IA LOCALES. En la actualidad, Huawei, Alibaba, Baidu, Moore Threads, Cambrian y otras empresas se han desarrollado en el campo de la potencia informática de la IA, y espero que ellas, así como más empresas, puedan ayudar a construir el propio sistema de potencia informática de la IA de China.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Al reducir drásticamente la tasa de inactividad de la potencia de cómputo de la GPU, Enfabrica recibió una ronda de financiación de 125 millones de dólares de NVIDIA
Fuente original: Alpha Commune
La falta de potencia de cálculo es actualmente un problema al que se enfrenta toda la industria de la IA, justo la semana pasada, después del Devday de OpenAI, debido a una serie de nuevas funciones que atrajeron a un gran número de usuarios a probar, las API de ChatGPT y GPT experimentaron una amplia gama de tiempos de inactividad a largo plazo, y Sam Altman también anunció la suspensión del registro de nuevos miembros Plus.
En la actualidad, en el campo de la potencia de cómputo de IA, la GPU de NVIDIA ocupa una posición casi monopólica, ya sea A100, H100 o el recién lanzado H200, es el punto de referencia de los chips de computación de IA, pero su GPU enfrenta un problema: el clúster de potencia de cómputo de la tarjeta gráfica implementado en el centro de datos no podrá proporcionar datos lo suficientemente rápido porque la red de conexión no puede proporcionar datos rápidamente y no puede ejecutarse a plena carga parte del tiempo, lo que resulta en un desperdicio de potencia de cómputo, lo que a su vez aumenta el costo total de propiedad (TCO).
Una startup llamada Enfabrica utiliza chips de red desarrollados específicamente para centros de datos de IA para aumentar la utilización de la potencia de cálculo de los nodos de rendimiento de la GPU en un 50% y reducir el coste de la potencia de cálculo de la inferencia y el entrenamiento de la IA.
Enfabrica cerró una ronda de financiación Serie B de 125 millones de dólares liderada por Atreides Management con NVIDIA como inversor estratégico, junto con la participación de IAG Capital Partners, Liberty Global Ventures, Valor Equity Partners, Infinitum Partners y Alumni Ventures, su primer inversor, Sutter Hill Ventures, también sigue sumando pesos.
Esta ronda de financiación aumentó la valoración de la empresa en más de 5 veces con respecto a la ronda anterior, lo que elevó su financiación acumulada a 148 millones de dólares. Gavin Baker, fundador de Atreides Management, se une a la Junta Directiva para ayudar con el crecimiento y la dirección estratégica de la empresa.
Con el objetivo de abordar los principales desafíos en el campo de la potencia de cómputo de la IA, dos veteranos en el campo de los chips unen fuerzas para iniciar un negocio
Según la última investigación de mercado de 650 Group, un instituto de investigación centrado en las cadenas de suministro de computación en la nube, es probable que el tamaño de la demanda de computación de IA/ML crezca de 8 a 275 veces cada 24 meses, y los servidores basados en IA/ML crecerán del 1% del mercado a casi el 20% en la próxima década.
Sin embargo, debido a las características de la computación de IA, el gran movimiento de datos y metadatos entre los elementos de computación distribuida ha formado un cuello de botella. Dylan Patel, analista de SemiAnalysis, señala que la potencia de cálculo de punto flotante (FLOP) de cada generación de chips/paquetes está creciendo más rápido que la velocidad de entrada y salida de datos. Y este desajuste está empeorando.
Enfabrica fue creada por Rochan Sankar y Shrijeet Mukherjee. Rochan Sankar es un ex director de ingeniería en el gigante de chips Broadcom, y Shrijeet Mukherjee fue responsable de la plataforma y arquitectura de red en Google, y tienen un profundo conocimiento y experiencia en chips y arquitectura de red.
Enfabrica se dirige a la creciente demanda de infraestructura informática "paralela, acelerada y heterogénea" (es decir, GPU) en la industria de la IA.
"El mayor desafío que plantea la actual revolución de la IA es la expansión de la infraestructura de IA, tanto en términos de costo computacional como de sostenibilidad computacional.
Los chips de red tradicionales, como los conmutadores, tienen dificultades para mantenerse al día con las demandas de movimiento de datos de las cargas de trabajo de IA modernas, lo que puede crear cuellos de botella para las demandas computacionales, como el entrenamiento de IA o el ajuste fino de IA, que requieren grandes conjuntos de datos durante el proceso de entrenamiento.
Existe una necesidad urgente en el espacio informático de IA de cerrar la brecha entre las crecientes demandas de cargas de trabajo de IA y el costo, la eficiencia, la sostenibilidad y la facilidad de escalado generales de los clústeres informáticos. "
Enfabrica presenta dispositivos y soluciones Accelerated Compute Fabric Switch (ACF-S) que complementan las GPU, las CPU y los aceleradores para abordar problemas críticos de redes, E/S y escalado de memoria en clústeres de IA y computación de alto rendimiento de centros de datos. Reduce el costo de cómputo de las GPU de los centros de datos y los clústeres de computación acelerada en un 50 %, expande la memoria 50 veces y reduce el costo de cómputo de la inferencia de modelos grandes en aproximadamente un 50 % en el mismo punto de rendimiento, logrando una reducción en el costo total de propiedad (TCO).
Según Dell'Oro Group, las inversiones en infraestructura de IA permitirán que los gastos de capital de los centros de datos superen los 500.000 millones de dólares en 2027. Al mismo tiempo, según el pronóstico de IDC, se espera que la inversión en hardware en IA en un sentido amplio crezca a una tasa compuesta anual del 20,5% en los próximos cinco años.
Se espera que el mercado de semiconductores conectados para centros de datos se duplique de casi 12.500 millones de dólares en 2022 a casi 25.000 millones de dólares en 2027.
Gavin Baker, que se une a la Junta Directiva de Enfabrica, es CIO y Socio Director de Atreides Management, donde ha invertido y formado parte de las juntas directivas de empresas como Nutanix, Jet.com, AppNexus, Dataminr, Cloudflare y SpaceX.
En lo que respecta a la infraestructura informática de la IA, habla de varias áreas importantes de mejora: "La combinación de un almacenamiento más rápido, una mejor red de back-end (especialmente Enfabrica) y la óptica lineal conectable/coempaquetada ahora emergente y la integración mejorada de CPU/GPU (GraceHopper de NVIDIA, MI300 de AMD y Dojo de Tesla) ha derribado el muro de la memoria , lo que mejorará aún más el retorno de la inversión de la formación, tanto reduciendo directamente el coste de la formación como aumentando indirectamente el margen de beneficio y reduciendo el coste de la inferencia de las siguientes maneras.
En resumen, las arquitecturas con una ventaja en "computación útil por unidad de energía" ganarán, y nos estamos moviendo rápidamente hacia una computación más útil por unidad de energía. "
Ayudando a los clústeres de cómputo de GPU NVIDIA a romper el "muro de la memoria"
En el campo de la computación acelerada por IA, la "barrera de la memoria" es un problema real, que se refiere a la brecha cada vez mayor entre el rendimiento del procesamiento y el ancho de banda de la memoria necesario para ofrecer ese rendimiento.
En comparación con la computación tradicional con CPU, la computación con GPU, que se usa comúnmente en IA, es más seria en este sentido, porque las GPU tienen más núcleos, mayor rendimiento de procesamiento y una gran demanda de datos.
Los datos utilizados por la IA deben organizarse y almacenarse primero en la memoria antes de que puedan ser procesados por la GPU. Proporcionar la memoria, el ancho de banda y la capacidad necesarios para la IA es una cuestión urgente.
La solución de Enfabrica incorpora tecnologías clave como el desacoplamiento CXL.mem, la organización en niveles de rendimiento/capacidad y las redes RDMA para lograr una jerarquía de memoria escalable, de gran ancho de banda, alta capacidad y limitada por la latencia para servir a cualquier clúster de computación de IA a gran escala.
Su primer chip, llamado convertidor ACF (Accelerated Compute Fabric), permite que los grupos de potencia de cómputo de GPU se conecten directamente a decenas de terabytes de grupos DRAM CXL.mem locales con una latencia extremadamente baja.
Específicamente, ACF impulsa aún más la organización en niveles de memoria para permitir el acceso de gran ancho de banda a petabytes de DRAM distribuidos en clústeres de computación y el resto del centro de datos a través de puertos de red de 800 GbE. A continuación, se crea un almacén de datos jerárquico con memoria cercana, memoria cercana y lejana, y memoria lejana de red para la computación acelerada, y hay límites de latencia estrictos en cada nivel de memoria. Con la ayuda de ACF, las GPU NVIDIA que realizan el procesamiento de datos pueden extraer datos de múltiples lugares diferentes sin experimentar barreras de velocidad.
La solución de Enfabrica, llamada ACF-S, consta de múltiples chips ACF con nodos de red de infraestructura de IA de 8 Tbps con interfaces 800G Ethernet, PCIe Gen 5 y CXL 2.0+, que pueden reducir el consumo de energía de E/S hasta en un 50% (ahorrando 2 kilovatios por rack) en comparación con los sistemas NVIDIA DGX-H100 y los sistemas Meta Grand Teton con ocho GPU NVIDIA H100.
Además, las soluciones de Enfabrica se pueden utilizar no solo para la inferencia de IA a gran escala, sino también para el entrenamiento de IA, así como para casos de uso no relacionados con la IA, como bases de datos y computación en malla.
Enfabrica planea vender chips y soluciones a los constructores de sistemas (proveedores de nube, operadores de centros de datos) en lugar de construir el sistema en sí. Sankar reveló que Enfabrica encaja profundamente con el ecosistema de NVIDIA, pero también planean trabajar con más empresas de computación de IA diferentes.
"ACF-S es neutral sobre el tipo y la marca de los procesadores de IA utilizados para la computación de IA, así como el modelo exacto implementado, lo que permite la construcción de infraestructura de IA en múltiples casos de uso diferentes y admite múltiples proveedores de procesadores sin bloqueo de tecnología patentada", dijo. "
Más rápido y con menor consumo de energía, una nueva generación de sistemas de potencia informática de IA está tomando forma
Apenas un año después del lanzamiento del H100, NVIDIA lanzó el H200, lo que demuestra su urgencia por mantener su posición de liderazgo en el campo de la potencia informática de la IA. Debido a la explosión de la IA generativa en el último año, sus competidores también han lanzado potentes productos informáticos de IA, ya sean los chips de la serie MI300 de AMD o los chips Maia de Microsoft que se comparan con el H100.
El poder de cómputo de la IA es una industria intensiva en tecnología y concentrada en capital, frente a la "lucha de hadas" de los gigantes, ¿cómo pueden sobrevivir las nuevas empresas de computación de IA?
El enfoque de d-Matrix se centra en la inferencia de IA, y los chips de inferencia de IA lanzados son más rápidos y eficientes energéticamente que productos similares de NVIDIA. Como parte importante del sistema informático de IA, Enfabrica ayuda a las GPU de NVIDIA (y otros chips informáticos de IA) a romper el "muro de la memoria", reducir la potencia informática inactiva y mejorar la tasa de utilización del sistema informático en su conjunto.
Los sistemas informáticos de IA, como todos los sistemas informáticos, tienen dos factores importantes, la velocidad y el consumo de energía. Aunque la computación de IA a gran escala (ya sea de entrenamiento o inferencia) está a cargo de clústeres de potencia informática, una velocidad de cálculo más rápida y un menor consumo de energía siguen siendo la dirección de la industria en su conjunto.
Las GPU de NVIDIA tienen una clara ventaja en la dirección de velocidades de cómputo más rápidas, mientras que empresas como Enfabrica están presionando para reducir el consumo de energía.
Como dice Rochan Sankar, fundador de Enfabrica: "Para que la computación de IA sea realmente omnipresente, la curva de costos debe bajar". La clave es si la potencia de cálculo de la GPU es mejor y se utiliza de forma más eficiente. "
Obviamente, la inversión de NVIDIA en Enfabrica también se basa en esta lógica, y a medida que la tecnología de Enfabrica mejora aún más la utilización de la energía de la GPU de NVIDIA, se espera que su posición de liderazgo en la industria se solidifique aún más.
Sin embargo, ante esta necesidad obvia y urgente, Enfabrica no es la única en la industria, el gigante de la industria Cisco también ha lanzado las series de hardware de red de IA Silicon One G200 y G202, y Broadcom también está trabajando en este campo. Enfabrica quiere seguir creciendo y todavía se enfrenta a la competencia.
SI LA INDUSTRIA DE LA IA EN EL EXTRANJERO SE HA ENFRENTADO A UNA ESCASEZ TEMPORAL DE POTENCIA INFORMÁTICA, ENTONCES LA INDUSTRIA DE LA IA DE CHINA TIENE QUE ENFRENTARSE A UNA ESCASEZ A LARGO PLAZO DE POTENCIA INFORMÁTICA DE IA, Y CON LA GPU DE NIVDIA AÚN MÁS RESTRINGIDA, LA INDUSTRIA TIENE UNA FUERTE DEMANDA DE PRODUCTOS INFORMÁTICOS DE IA LOCALES. En la actualidad, Huawei, Alibaba, Baidu, Moore Threads, Cambrian y otras empresas se han desarrollado en el campo de la potencia informática de la IA, y espero que ellas, así como más empresas, puedan ayudar a construir el propio sistema de potencia informática de la IA de China.