SK Hynix logra un hito crítico en los chips HBM4 de próxima generación

El viernes, SK Hynix completó el desarrollo de HBM4, su producto de memoria de próxima generación para IA de ultra alto rendimiento. La empresa surcoreana también estableció un sistema de producción en masa para estos chips de memoria de alto ancho de banda.

Según explicó la compañía, este chip semiconductor interconecta verticalmente múltiples chips DRAM y aumenta la velocidad de procesamiento de datos en comparación con los productos DRAM convencionales. SK Hynix confía en que la producción masiva de estos chips HBM4 liderará la industria de inteligencia artificial.

SK Hynix prepara la producción masiva de HBM4

La empresa desarrolló este producto basándose en el reciente aumento dramático en la demanda de IA y procesamiento de datos, que requiere memoria de alto ancho de banda para una mayor velocidad del sistema. También señalan que asegurar la eficiencia energética de la memoria se ha convertido en un requisito clave para los clientes, ya que el consumo de energía para la operación de centros de datos ha aumentado considerablemente.

El proveedor de semiconductores espera que el mayor ancho de banda y eficiencia energética del HBM4 sea la solución óptima para satisfacer las necesidades de los clientes. La producción de esta nueva generación implica apilar chips verticalmente para ahorrar espacio y reducir el consumo de energía, lo que ayuda a procesar grandes volúmenes de datos generados por aplicaciones complejas de IA.

“Completar el desarrollo del HBM4 será un nuevo hito para la industria. Al suministrar el producto que satisface las necesidades del cliente en rendimiento, eficiencia energética y confiabilidad de manera oportuna, la empresa cumplirá con el tiempo de comercialización y mantendrá una posición competitiva”, afirmó Joohwan Cho, jefe de desarrollo de HBM en SK Hynix.

La compañía surcoreana reveló que su nuevo producto tiene la mejor velocidad de procesamiento de datos y eficiencia energética de la industria. Según el informe, el ancho de banda del chip se ha duplicado respecto a la generación anterior al adoptar 2,048 terminales I/O, y su eficiencia energética ha aumentado en más del 40%.

SK Hynix también sostuvo que HBM4 mejorará el rendimiento del servicio de IA hasta en un 69% cuando se aplique el producto. La iniciativa busca resolver los cuellos de botella de datos y reducir los costos de energía de los centros de datos.

La firma reveló que HBM4 supera la velocidad operativa estándar (8Gbps) del Consejo de Ingeniería de Dispositivos Electrónicos Conjuntos (JEDEC) al incorporar más de 10Gbps en el producto. JEDEC es el organismo global de estandarización que desarrolla estándares abiertos y publicaciones para la industria microelectrónica.

SK Hynix también incorporó el proceso Advanced MR-MUF en HBM4, que permite apilar los chips e inyectar materiales protectores líquidos entre ellos para proteger el circuito y endurecerlos.

La compañía afirmó que el proceso ha demostrado ser más confiable y eficiente en el mercado para la disipación de calor en comparación con el método de colocar materiales tipo película para cada pila de chips.

Acciones de SK Hynix se disparan

Tras el lanzamiento de HBM4, el precio de las acciones de SK Hynix alcanzó un máximo histórico el viernes, aumentando hasta un 6,60% a 327,500 KRW. El precio de las acciones de la empresa también ha aumentado aproximadamente un 17,5% en los últimos cinco días y casi un 22% en el último mes.

Kim Sunwoo, analista senior de Meritz Securities, pronosticó que la participación de la empresa en el mercado HBM permanecerá en el rango bajo del 60% en 2026, apoyada por el suministro temprano de HBM4 a clientes clave y la ventaja resultante de ser pioneros.

SK Hynix suministra la mayor cantidad de chips semiconductores HBM a Nvidia, seguido por Samsung Electronics y Micron, que suministran volúmenes más pequeños. El jefe de planificación de negocios de HBM de la compañía, Choi Joon-yong, proyectó que el mercado de chips de memoria para IA aumentará un 30% anual hasta 2030.

Joon-yong afirmó que la demanda del usuario final para IA es muy fuerte y también ve que los miles de millones de dólares en gastos de capital de IA de las empresas de computación en la nube se revisarán al alza en el futuro.

Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)