تم نشر هذه المقالة لأول مرة على تطبيق Titanium Media *
رقائق Nvidia الذكاء الاصطناعي الثلاثة الجديدة هذه ليست "إصدارات محسنة" ، ولكنها "إصدارات متقلصة" ، منها HGX H20 محدودة من حيث النطاق الترددي وسرعة الحوسبة ، ومن المتوقع أن ينخفض سعر H20 ، لكنه سيظل أعلى من شريحة الذكاء الاصطناعي المحلية 910B.
* مصدر الصورة: تم إنشاؤه بواسطة الذكاء الاصطناعي غير محدود *
في 10 نوفمبر ، أفيد مؤخرا أن شركة NVIDIA العملاقة للرقائق (NVIDIA) ستطلق ثلاث رقائق الذكاء الاصطناعي للسوق الصينية على أساس H100 استجابة لأحدث ضوابط تصدير الرقائق في الولايات المتحدة.
وفقا لوثيقة المواصفات ، ستطلق Nvidia قريبا منتجات جديدة للعملاء الصينيين تسمى HGX H20 و L20 PCle و L2 PCle ، والتي تستند إلى معماريات Nvidia's Hopper و Ada Lovelace. انطلاقا من المواصفات والتسمية ، تهدف المنتجات الثلاثة إلى سيناريوهات التدريب والاستدلال والحافة ، وسيتم الإعلان عنها في أقرب وقت في 16 نوفمبر ، ووقت تسليم عينة المنتج من نوفمبر إلى ديسمبر من هذا العام ، ووقت الإنتاج الضخم من ديسمبر من هذا العام إلى يناير من العام المقبل.
علم تطبيق Titanium Media App من عدد من شركات سلسلة صناعة NVIDIA أن الأخبار المذكورة أعلاه صحيحة.
تعلم تطبيق Titanium Media App أيضا حصريا أن رقائق الذكاء الاصطناعي الثلاث من NVIDIA ليست "إصدارات محسنة" ، ولكنها "إصدارات متقلصة". من الناحية النظرية ، فإن قوة الحوسبة الإجمالية أقل بحوالي 80٪ من شريحة NVIDIA H100 GPU ، أي أن H20 تساوي 20٪ من أداء طاقة الحوسبة الشامل ل H100 ، وإضافة ذاكرة فيديو HBM ووحدات التوصيل البيني NVLink يحسن تكلفة قوة الحوسبة. لذلك ، على الرغم من أن سعر HGX H20 سينخفض مقارنة ب H100 ، فمن المتوقع أن يظل سعر هذا المنتج أعلى من سعر شريحة الذكاء الاصطناعي المحلية 910B.
"هذا يعادل توسيع ممرات الطرق السريعة ، لكن مدخل بوابة الرسوم لم يتم توسيعه ، مما يحد من حركة المرور. من الناحية الفنية أيضا ، من خلال قفل الأجهزة والبرامج ، يمكن التحكم في أداء الشريحة بدقة ، وليس هناك حاجة لاستبدال خط الإنتاج على نطاق واسع ، حتى إذا تمت ترقية الجهاز ، فلا يزال من الممكن تعديل الأداء حسب الحاجة. في الوقت الحاضر ، تتمتع H20 الجديدة بأداء "عالق" من المصدر. أوضح مصدر في الصناعة شريحة H20 الجديدة ، "على سبيل المثال ، كان الأمر يستغرق 20 يوما لتشغيل مهمة باستخدام H100 ، ولكن الآن قد يستغرق الأمر 100 يوم حتى يتم تشغيل H20 مرة أخرى." "
على الرغم من إصدار جولة جديدة من القيود المفروضة على الرقائق في الولايات المتحدة ، لا يبدو أن Nvidia قد تخلت عن سوق الطاقة الحاسوبية الذكاء الاصطناعي الضخم في الصين.
في الوقت نفسه ، يعد 910B أعلى بكثير من منتجات سلسلة NVIDIA A100 / H100 من حيث استهلاك طاقة الحوسبة والتدفئة ، وهو غير متوافق مع CUDA ، وهو أمر يصعب تلبية احتياجات التدريب النموذجية لمراكز الحوسبة الذكية طويلة المدى بشكل كامل.
حتى الآن ، لم تصدر Nvidia أي تعليقات رسمية حول هذا الموضوع.
يذكر أنه في 17 أكتوبر من هذا العام ، أصدر مكتب الصناعة والأمن (BIS) التابع لوزارة التجارة الأمريكية لوائح جديدة لمراقبة الصادرات للرقائق ، وفرض ضوابط تصدير جديدة على منتجات أشباه الموصلات ، بما في ذلك رقائق الذكاء الاصطناعي عالية الأداء من Nvidia ، ودخلت القيود حيز التنفيذ في 23 أكتوبر. يظهر ملف Nvidia لدى هيئة الأوراق المالية والبورصات الأمريكية أن المنتجات المحظورة التي تدخل حيز التنفيذ الفوري تشمل A800 و H800 و L40S ، أقوى رقائق الذكاء الاصطناعي.
بالإضافة إلى ذلك ، تحتفظ معالجات L40 و RTX 4090 بنافذة 30 يوما الأصلية.
في 31 أكتوبر ، كانت هناك أخبار تفيد بأن Nvidia قد تضطر إلى إلغاء طلب للحصول على رقائق متقدمة بقيمة 5 مليارات دولار ، وانخفض سعر سهم Nvidia بشكل حاد بسبب الأخبار. في السابق ، لم يكن من الممكن بيع A800 و H800 من Nvidia الموردة حصريا للصين بشكل طبيعي في السوق الصينية بسبب اللوائح الجديدة في الولايات المتحدة ، وكانت هاتان الشريحتان تسميان "الإصدارات المخصي" من A100 و H100 ، وخفضت Nvidia أداء الشريحة من أجل الامتثال للوائح السابقة في الولايات المتحدة.
في 31 أكتوبر ، قال تشانغ شين ، المتحدث باسم المجلس الصيني لتعزيز التجارة الدولية ، إن قواعد مراقبة الصادرات الصادرة حديثا لأشباه الموصلات إلى الصين من قبل الولايات المتحدة قد شددت القيود على تصدير الرقائق المتعلقة بالذكاء الاصطناعي ومعدات تصنيع أشباه الموصلات إلى الصين ، وشملت عددا من الكيانات الصينية في "قائمة الكيانات" لمراقبة الصادرات. وقد انتهكت هذه التدابير التي اتخذتها الولايات المتحدة بشكل خطير مبادئ اقتصاد السوق والقواعد الاقتصادية والتجارية الدولية، وأدت إلى تفاقم خطر تمزق وتجزئة سلسلة توريد أشباه الموصلات العالمية. يؤدي الحظر المفروض على صادرات الرقائق إلى الصين الذي تنفذه الولايات المتحدة منذ النصف الثاني من عام 2022 إلى تغيير العرض والطلب العالميين بشكل عميق ، مما يتسبب في اختلال التوازن في المعروض من الرقائق في عام 2023 ، مما يؤثر على نمط صناعة الرقائق العالمية ويضر بمصالح الشركات في مختلف البلدان ، بما في ذلك الشركات الصينية.
مقارنة بين معلمات أداء NVIDIA HGX H20 و L20 و L2 وغيرها من المنتجات
تعلم Titanium Media App أن منتجات شرائح HGX H20 و L20 و L2 الذكاء الاصطناعي الجديدة تستند إلى معماريات Hopper و Ada من NVIDIA على التوالي ، وهي مناسبة للتدريب السحابي والاستدلال السحابي واستدلال الحافة.
من بينها ، يحتوي منتجا الاستدلال الأخيران L20 و L2 الذكاء الاصطناعي على "استبدال محلي" مماثل وحلول متوافقة مع CUDA ، بينما يعتمد HGX H20 على منتجات رقاقة التدريب H100 و الذكاء الاصطناعي عن طريق إخصاء البرامج الثابتة ، ليحل محل A100 / H800 بشكل أساسي.
وفقا للوثائق ، يحتوي H20 الجديد على تقنية تغليف CoWoS المتقدمة ، ويضيف HBM3 (ذاكرة عالية الأداء) إلى 96 جيجابايت ، لكن التكلفة تزيد أيضا بمقدار 240 دولارا أمريكيا ؛ تصل قوة الحوسبة الكثيفة FP16 من H20 إلى 148TFLOPS (تريليون عملية فاصلة عائمة في الثانية) ، وهو ما يمثل حوالي 15٪ من قوة الحوسبة في H100 ، لذلك يحتاج إلى إضافة خوارزمية إضافية وتكاليف الموظفين ؛ تمت ترقية NVLink من 400 جيجابايت / ثانية إلى 900 جيجابايت / ، لذلك سيتم ترقية معدل التوصيل البيني بشكل كبير.
وفقا للتقييم ، فإن H100 / H800 هو مخطط الممارسة السائد لمجموعات طاقة الحوسبة. من بينها ، الحد النظري ل H100 هو 50,000 بطاقة والحد الأقصى لقوة الحوسبة هو 100,000 P ، والحد الأقصى لمجموعة الممارسة H800 هو 20,000-30,000 بطاقة ، بإجمالي 40,000 P قوة الحوسبة ، والحد الأقصى لمجموعة الممارسة A100 هو 16,000 بطاقة والحد الأقصى لقوة الحوسبة هو 9600P.
ومع ذلك ، فإن الحد النظري لشريحة H20 الجديدة هو 50000 بطاقة ، لكن قوة الحوسبة لكل بطاقة هي 0.148P ، وإجمالي قوة الحوسبة ما يقرب من 7400P ، وهو أقل من H100 / H800 و A100. لذلك ، فإن مقياس مجموعة H20 بعيد كل البعد عن المقياس النظري ل H100 ، واستنادا إلى تقدير قوة الحوسبة وتوازن الاتصالات ، يبلغ متوسط قوة الحوسبة الإجمالية المعقولة حوالي 3000P ، ويجب إضافة المزيد من التكاليف والمزيد من قوة الحوسبة لإكمال تدريب نموذج معلمة مستوى 100 مليار.
أخبر خبيران في صناعة أشباه الموصلات Titanium Media App أنه بناء على تقدير معلمات الأداء الحالية ، فمن المحتمل جدا ألا يتم بيع منتجات Nvidia B100 GPU إلى السوق الصينية العام المقبل.
على العموم ، إذا كانت الشركات النموذجية الكبيرة ترغب في إجراء تدريب نموذجي كبير باستخدام معلمات مثل GPT-4 ، فإن حجم مجموعات طاقة الحوسبة هو جوهر ، وفي الوقت الحالي ، يمكن أن يكون H800 و H100 فقط مؤهلين للتدريب على النماذج الكبيرة ، في حين أن أداء 910B المحلي يتراوح بين A100 و H100 ، وهو مجرد "خيار احتياطي للملاذ الأخير".
الآن أصبح H20 الجديد الذي أطلقته Nvidia أكثر ملاءمة للتدريب على النماذج الرأسية والاستدلال ، والتي لا يمكنها تلبية الاحتياجات التدريبية للنماذج الكبيرة ذات المستوى التريليون ، ولكن الأداء العام أعلى قليلا من أداء 910B ، إلى جانب بيئة CUDA من NVIDIA ، وبالتالي منع مسار الاختيار الوحيد للبطاقات المحلية في سوق الرقائق الذكاء الاصطناعي في الصين في المستقبل بموجب أمر تقييد الرقائق الأمريكية.
وفقا لأحدث تقرير مالي ، في الربع المنتهي في 30 يوليو ، جاء أكثر من 85٪ من مبيعات Nvidia البالغة 13.5 مليار دولار من الولايات المتحدة والصين ، وجاء حوالي 14٪ فقط من المبيعات من دول ومناطق أخرى.
متأثرا بأخبار H20 ، اعتبارا من إغلاق سوق الأسهم الأمريكية في 9 نوفمبر ، ارتفع سعر سهم Nvidia بشكل طفيف بنسبة 0.81٪ ليغلق عند 469.5 دولارا للسهم. في أيام التداول الخمسة الماضية ، ارتفعت Nvidia بأكثر من 10٪ ، مع أحدث قيمة سوقية بلغت 1.16 تريليون دولار.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تحظر Nvidia رقائق الذكاء الاصطناعي المحلية ، وأصبح "الإصدار الخاص بالصين" "نسخة متقلصة"
المؤلف: لين زيجيا
مونتاج: ما جنان
في 10 نوفمبر ، أفيد مؤخرا أن شركة NVIDIA العملاقة للرقائق (NVIDIA) ستطلق ثلاث رقائق الذكاء الاصطناعي للسوق الصينية على أساس H100 استجابة لأحدث ضوابط تصدير الرقائق في الولايات المتحدة.
وفقا لوثيقة المواصفات ، ستطلق Nvidia قريبا منتجات جديدة للعملاء الصينيين تسمى HGX H20 و L20 PCle و L2 PCle ، والتي تستند إلى معماريات Nvidia's Hopper و Ada Lovelace. انطلاقا من المواصفات والتسمية ، تهدف المنتجات الثلاثة إلى سيناريوهات التدريب والاستدلال والحافة ، وسيتم الإعلان عنها في أقرب وقت في 16 نوفمبر ، ووقت تسليم عينة المنتج من نوفمبر إلى ديسمبر من هذا العام ، ووقت الإنتاج الضخم من ديسمبر من هذا العام إلى يناير من العام المقبل.
علم تطبيق Titanium Media App من عدد من شركات سلسلة صناعة NVIDIA أن الأخبار المذكورة أعلاه صحيحة.
تعلم تطبيق Titanium Media App أيضا حصريا أن رقائق الذكاء الاصطناعي الثلاث من NVIDIA ليست "إصدارات محسنة" ، ولكنها "إصدارات متقلصة". من الناحية النظرية ، فإن قوة الحوسبة الإجمالية أقل بحوالي 80٪ من شريحة NVIDIA H100 GPU ، أي أن H20 تساوي 20٪ من أداء طاقة الحوسبة الشامل ل H100 ، وإضافة ذاكرة فيديو HBM ووحدات التوصيل البيني NVLink يحسن تكلفة قوة الحوسبة. لذلك ، على الرغم من أن سعر HGX H20 سينخفض مقارنة ب H100 ، فمن المتوقع أن يظل سعر هذا المنتج أعلى من سعر شريحة الذكاء الاصطناعي المحلية 910B.
"هذا يعادل توسيع ممرات الطرق السريعة ، لكن مدخل بوابة الرسوم لم يتم توسيعه ، مما يحد من حركة المرور. من الناحية الفنية أيضا ، من خلال قفل الأجهزة والبرامج ، يمكن التحكم في أداء الشريحة بدقة ، وليس هناك حاجة لاستبدال خط الإنتاج على نطاق واسع ، حتى إذا تمت ترقية الجهاز ، فلا يزال من الممكن تعديل الأداء حسب الحاجة. في الوقت الحاضر ، تتمتع H20 الجديدة بأداء "عالق" من المصدر. أوضح مصدر في الصناعة شريحة H20 الجديدة ، "على سبيل المثال ، كان الأمر يستغرق 20 يوما لتشغيل مهمة باستخدام H100 ، ولكن الآن قد يستغرق الأمر 100 يوم حتى يتم تشغيل H20 مرة أخرى." "
على الرغم من إصدار جولة جديدة من القيود المفروضة على الرقائق في الولايات المتحدة ، لا يبدو أن Nvidia قد تخلت عن سوق الطاقة الحاسوبية الذكاء الاصطناعي الضخم في الصين.
في الوقت نفسه ، يعد 910B أعلى بكثير من منتجات سلسلة NVIDIA A100 / H100 من حيث استهلاك طاقة الحوسبة والتدفئة ، وهو غير متوافق مع CUDA ، وهو أمر يصعب تلبية احتياجات التدريب النموذجية لمراكز الحوسبة الذكية طويلة المدى بشكل كامل.
حتى الآن ، لم تصدر Nvidia أي تعليقات رسمية حول هذا الموضوع.
يذكر أنه في 17 أكتوبر من هذا العام ، أصدر مكتب الصناعة والأمن (BIS) التابع لوزارة التجارة الأمريكية لوائح جديدة لمراقبة الصادرات للرقائق ، وفرض ضوابط تصدير جديدة على منتجات أشباه الموصلات ، بما في ذلك رقائق الذكاء الاصطناعي عالية الأداء من Nvidia ، ودخلت القيود حيز التنفيذ في 23 أكتوبر. يظهر ملف Nvidia لدى هيئة الأوراق المالية والبورصات الأمريكية أن المنتجات المحظورة التي تدخل حيز التنفيذ الفوري تشمل A800 و H800 و L40S ، أقوى رقائق الذكاء الاصطناعي.
بالإضافة إلى ذلك ، تحتفظ معالجات L40 و RTX 4090 بنافذة 30 يوما الأصلية.
في 31 أكتوبر ، كانت هناك أخبار تفيد بأن Nvidia قد تضطر إلى إلغاء طلب للحصول على رقائق متقدمة بقيمة 5 مليارات دولار ، وانخفض سعر سهم Nvidia بشكل حاد بسبب الأخبار. في السابق ، لم يكن من الممكن بيع A800 و H800 من Nvidia الموردة حصريا للصين بشكل طبيعي في السوق الصينية بسبب اللوائح الجديدة في الولايات المتحدة ، وكانت هاتان الشريحتان تسميان "الإصدارات المخصي" من A100 و H100 ، وخفضت Nvidia أداء الشريحة من أجل الامتثال للوائح السابقة في الولايات المتحدة.
في 31 أكتوبر ، قال تشانغ شين ، المتحدث باسم المجلس الصيني لتعزيز التجارة الدولية ، إن قواعد مراقبة الصادرات الصادرة حديثا لأشباه الموصلات إلى الصين من قبل الولايات المتحدة قد شددت القيود على تصدير الرقائق المتعلقة بالذكاء الاصطناعي ومعدات تصنيع أشباه الموصلات إلى الصين ، وشملت عددا من الكيانات الصينية في "قائمة الكيانات" لمراقبة الصادرات. وقد انتهكت هذه التدابير التي اتخذتها الولايات المتحدة بشكل خطير مبادئ اقتصاد السوق والقواعد الاقتصادية والتجارية الدولية، وأدت إلى تفاقم خطر تمزق وتجزئة سلسلة توريد أشباه الموصلات العالمية. يؤدي الحظر المفروض على صادرات الرقائق إلى الصين الذي تنفذه الولايات المتحدة منذ النصف الثاني من عام 2022 إلى تغيير العرض والطلب العالميين بشكل عميق ، مما يتسبب في اختلال التوازن في المعروض من الرقائق في عام 2023 ، مما يؤثر على نمط صناعة الرقائق العالمية ويضر بمصالح الشركات في مختلف البلدان ، بما في ذلك الشركات الصينية.
تعلم Titanium Media App أن منتجات شرائح HGX H20 و L20 و L2 الذكاء الاصطناعي الجديدة تستند إلى معماريات Hopper و Ada من NVIDIA على التوالي ، وهي مناسبة للتدريب السحابي والاستدلال السحابي واستدلال الحافة.
من بينها ، يحتوي منتجا الاستدلال الأخيران L20 و L2 الذكاء الاصطناعي على "استبدال محلي" مماثل وحلول متوافقة مع CUDA ، بينما يعتمد HGX H20 على منتجات رقاقة التدريب H100 و الذكاء الاصطناعي عن طريق إخصاء البرامج الثابتة ، ليحل محل A100 / H800 بشكل أساسي.
وفقا للوثائق ، يحتوي H20 الجديد على تقنية تغليف CoWoS المتقدمة ، ويضيف HBM3 (ذاكرة عالية الأداء) إلى 96 جيجابايت ، لكن التكلفة تزيد أيضا بمقدار 240 دولارا أمريكيا ؛ تصل قوة الحوسبة الكثيفة FP16 من H20 إلى 148TFLOPS (تريليون عملية فاصلة عائمة في الثانية) ، وهو ما يمثل حوالي 15٪ من قوة الحوسبة في H100 ، لذلك يحتاج إلى إضافة خوارزمية إضافية وتكاليف الموظفين ؛ تمت ترقية NVLink من 400 جيجابايت / ثانية إلى 900 جيجابايت / ، لذلك سيتم ترقية معدل التوصيل البيني بشكل كبير.
وفقا للتقييم ، فإن H100 / H800 هو مخطط الممارسة السائد لمجموعات طاقة الحوسبة. من بينها ، الحد النظري ل H100 هو 50,000 بطاقة والحد الأقصى لقوة الحوسبة هو 100,000 P ، والحد الأقصى لمجموعة الممارسة H800 هو 20,000-30,000 بطاقة ، بإجمالي 40,000 P قوة الحوسبة ، والحد الأقصى لمجموعة الممارسة A100 هو 16,000 بطاقة والحد الأقصى لقوة الحوسبة هو 9600P.
ومع ذلك ، فإن الحد النظري لشريحة H20 الجديدة هو 50000 بطاقة ، لكن قوة الحوسبة لكل بطاقة هي 0.148P ، وإجمالي قوة الحوسبة ما يقرب من 7400P ، وهو أقل من H100 / H800 و A100. لذلك ، فإن مقياس مجموعة H20 بعيد كل البعد عن المقياس النظري ل H100 ، واستنادا إلى تقدير قوة الحوسبة وتوازن الاتصالات ، يبلغ متوسط قوة الحوسبة الإجمالية المعقولة حوالي 3000P ، ويجب إضافة المزيد من التكاليف والمزيد من قوة الحوسبة لإكمال تدريب نموذج معلمة مستوى 100 مليار.
أخبر خبيران في صناعة أشباه الموصلات Titanium Media App أنه بناء على تقدير معلمات الأداء الحالية ، فمن المحتمل جدا ألا يتم بيع منتجات Nvidia B100 GPU إلى السوق الصينية العام المقبل.
على العموم ، إذا كانت الشركات النموذجية الكبيرة ترغب في إجراء تدريب نموذجي كبير باستخدام معلمات مثل GPT-4 ، فإن حجم مجموعات طاقة الحوسبة هو جوهر ، وفي الوقت الحالي ، يمكن أن يكون H800 و H100 فقط مؤهلين للتدريب على النماذج الكبيرة ، في حين أن أداء 910B المحلي يتراوح بين A100 و H100 ، وهو مجرد "خيار احتياطي للملاذ الأخير".
الآن أصبح H20 الجديد الذي أطلقته Nvidia أكثر ملاءمة للتدريب على النماذج الرأسية والاستدلال ، والتي لا يمكنها تلبية الاحتياجات التدريبية للنماذج الكبيرة ذات المستوى التريليون ، ولكن الأداء العام أعلى قليلا من أداء 910B ، إلى جانب بيئة CUDA من NVIDIA ، وبالتالي منع مسار الاختيار الوحيد للبطاقات المحلية في سوق الرقائق الذكاء الاصطناعي في الصين في المستقبل بموجب أمر تقييد الرقائق الأمريكية.
وفقا لأحدث تقرير مالي ، في الربع المنتهي في 30 يوليو ، جاء أكثر من 85٪ من مبيعات Nvidia البالغة 13.5 مليار دولار من الولايات المتحدة والصين ، وجاء حوالي 14٪ فقط من المبيعات من دول ومناطق أخرى.
متأثرا بأخبار H20 ، اعتبارا من إغلاق سوق الأسهم الأمريكية في 9 نوفمبر ، ارتفع سعر سهم Nvidia بشكل طفيف بنسبة 0.81٪ ليغلق عند 469.5 دولارا للسهم. في أيام التداول الخمسة الماضية ، ارتفعت Nvidia بأكثر من 10٪ ، مع أحدث قيمة سوقية بلغت 1.16 تريليون دولار.