SK Hynix atteint une étape critique dans les puces HBM4 de prochaine génération

Vendredi, SK Hynix a terminé le développement de HBM4, son produit de mémoire de nouvelle génération pour l'IA à ultra haute performance. L'entreprise sud-coréenne a également établi un système de production en masse pour ces puces de mémoire à large bande.

Selon l'entreprise, cette puce semi-conductrice interconnecte verticalement plusieurs puces DRAM et augmente la vitesse de traitement des données par rapport aux produits DRAM conventionnels. SK Hynix est convaincu que la production de masse de ces puces HBM4 mènera l'industrie de l'intelligence artificielle.

SK Hynix prépare la production en masse de HBM4

L'entreprise a développé ce produit en se basant sur l'augmentation dramatique récente de la demande en IA et en traitement de données, qui nécessite une mémoire à large bande pour une plus grande vitesse du système. Ils notent également que garantir l'efficacité énergétique de la mémoire est devenu un critère clé pour les clients, car la consommation d'énergie pour le fonctionnement des centres de données a considérablement augmenté.

Le fournisseur de semi-conducteurs s'attend à ce que la bande passante et l'efficacité énergétique accrues du HBM4 soient la solution optimale pour répondre aux besoins des clients. La production de cette nouvelle génération implique d'empiler les puces verticalement pour gagner de la place et réduire la consommation d'énergie, ce qui aide à traiter de grands volumes de données générés par des applications complexes d'IA.

“Achever le développement du HBM4 sera une nouvelle étape pour l'industrie. En fournissant un produit qui répond aux besoins des clients en matière de performance, d'efficacité énergétique et de fiabilité en temps opportun, l'entreprise respectera le délai de mise sur le marché et maintiendra une position compétitive”, a déclaré Joohwan Cho, responsable du développement du HBM chez SK Hynix.

La société sud-coréenne a révélé que son nouveau produit offre la meilleure vitesse de traitement des données et l'efficacité énergétique de l'industrie. Selon le rapport, la bande passante de la puce a doublé par rapport à la génération précédente en adoptant 2 048 terminaux I/O, et son efficacité énergétique a augmenté de plus de 40 %.

SK Hynix a également déclaré que le HBM4 améliorera les performances du service d'IA jusqu'à 69 % lors de l'application du produit. L'initiative vise à résoudre les goulets d'étranglement des données et à réduire les coûts énergétiques des centres de données.

La société a révélé que HBM4 dépasse la vitesse opérationnelle standard (8Gbps) du Conseil d'ingénierie des dispositifs électroniques intégrés (JEDEC) en intégrant plus de 10Gbps dans le produit. JEDEC est l'organisme mondial de normalisation qui développe des normes ouvertes et des publications pour l'industrie microélectronique.

SK Hynix a également intégré le processus Advanced MR-MUF dans HBM4, qui permet d'empiler les puces et d'injecter des matériaux protecteurs liquides entre elles pour protéger le circuit et les durcir.

La société a affirmé que le processus s'est avéré plus fiable et efficace sur le marché pour la dissipation de la chaleur par rapport à la méthode consistant à placer des matériaux de type film pour chaque pile de puces.

Les actions de SK Hynix s'envolent

Après le lancement de HBM4, le prix des actions de SK Hynix a atteint un niveau record vendredi, augmentant de jusqu'à 6,60 % à 327,500 KRW. Le prix des actions de l'entreprise a également augmenté d'environ 17,5 % au cours des cinq derniers jours et de presque 22 % au cours du dernier mois.

Kim Sunwoo, analyste senior chez Meritz Securities, a prédit que la part de marché de l'entreprise dans le HBM restera dans la fourchette basse de 60 % en 2026, soutenue par l'approvisionnement précoce en HBM4 à des clients clés et l'avantage résultant d'être des pionniers.

SK Hynix fournit la plus grande quantité de puces de mémoire HBM à Nvidia, suivi par Samsung Electronics et Micron, qui fournissent des volumes plus petits. Le responsable de la planification des affaires HBM de l'entreprise, Choi Joon-yong, a prévu que le marché des puces de mémoire pour l'IA augmentera de 30 % par an d'ici 2030.

Joon-yong a affirmé que la demande des utilisateurs finaux pour l'IA est très forte et il prévoit également que les milliards de dollars de dépenses en capital de l'IA des entreprises de cloud computing seront révisés à la hausse à l'avenir.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)