* مصدر الصورة: تم إنشاؤه بواسطة الذكاء الاصطناعي غير محدود *
انفجرت Nvidia Lao Huang مرة أخرى بجيل جديد من رقائق GPU ** H200 **.
قال الموقع الرسمي بشكل غير رسمي ، "أقوى وحدة معالجة رسومات في العالم ، مصممة للحوسبة الذكاء الاصطناعي والفائقة".
سمعت أن جميع الشركات الذكاء الاصطناعي تشكو من عدم كفاية الذاكرة؟
هذه المرة ، تمت زيادة الذاكرة الكبيرة ** 141 جيجابايت ** بشكل مباشر بنسبة 76٪ مقارنة ب 80 جيجابايت من H100.
وباعتبارها أول وحدة معالجة رسومات مزودة بذاكرة HBM3e، تمت زيادة عرض النطاق الترددي للذاكرة من 3.35 تيرابايت / ثانية إلى 4.8 تيرابايت / ثانية، بزيادة قدرها 43٪.
ماذا يعني ذلك بالنسبة الذكاء الاصطناعي؟
بدعم من HBM3e ، يضاعف H200 تقريبا أداء الاستدلال ل Llama-70B ، ويمكن أيضا تحسين GPT3-175B بنسبة 60٪.
إليك خبر سار آخر للشركات الذكاء الاصطناعي:
يتوافق H200 تماما مع H100 ، مما يعني أن إضافة H200 إلى نظام موجود لا يتطلب أي تعديلات.
لا يمكن استخدام أقوى شريحة الذكاء الاصطناعي إلا لمدة نصف عام
باستثناء ترقية الذاكرة ، فإن H200 هو في الأساس نفس H100 ، والذي ينتمي أيضا إلى بنية Hopper.
عملية TSMC 4 نانومتر ، 80 مليار ترانزستور ، NVLink 4 900 جيجابايت في الثانية عالية السرعة ، كلها موروثة بالكامل.
حتى ذروة قوة الحوسبة تظل كما هي ، ولا تزال البيانات مألوفة مع FP64 Vector 33.5TFlops و FP64 Tensor 66.9TFlops.
أما بالنسبة لسبب كون الذاكرة 141 جيجابايت ، فإن AnandTech تحلل ** ذاكرة HBM3e نفسها بسعة فعلية تبلغ 144 جيجابايت ، والتي تتكون من 6 أكوام بسعة 24 جيجابايت **.
مقارنة ب A100 الذي تم إصداره في عام 2020 ، فإن H200 أسرع 18 مرة من الاستدلال على GPT-3 175B فقط عن طريق ترقية الذاكرة.
من المتوقع أن يتم إطلاق H200 في الربع الثاني من عام 2024 ، لكن اسم H200 ، أقوى شريحة الذكاء الاصطناعي ، لا يمكن امتلاكه إلا لمدة نصف عام.
أيضا في الربع الرابع من عام 2024 ، ستتوفر أيضا B100 القائمة على بنية Blackwell من الجيل التالي ، والأداء الدقيق غير معروف بعد ، ويلمح الرسم البياني إلى نمو هائل.
**ستنشر مراكز الحوسبة الفائقة المتعددة عقد الحوسبة الفائقة GH200 **
بالإضافة إلى شريحة H200 نفسها ، أصدرت Nvidia أيضا سلسلة من المنتجات العنقودية المكونة منها هذه المرة.
الأول هو منصة ** HGX H200 ** ، وهي مجهزة ب 8 H200 على لوحة حامل HGX ، مع ذاكرة فيديو إجمالية تبلغ 1.1 تيرابايت ، وسرعة تشغيل فاصلة عائمة 8 بت تزيد عن 32P (10 ^ 15) FLOPS ، وهو ما يتوافق مع بيانات H100.
تستخدم HGX تقنيات التوصيل البيني عالي السرعة NVLink و NVSwitch من NVIDIA لتشغيل مجموعة واسعة من أحمال عمل التطبيقات بأعلى أداء ، بما في ذلك التدريب والاستدلال لطرز 175B الكبيرة.
تسمح الطبيعة المستقلة للوحة HGX بتوصيلها بنظام مضيف مناسب ، مما يسمح للمستخدمين بتخصيص الجزء غير GPU من خادمهم المتطور.
التالي هو عقدة الحوسبة الفائقة Quad GH200 - تتكون من 4 GH200s ، و GH200 عبارة عن مزيج من H200 و Grace CPU.
ستوفر عقدة Quad GH200 288 نواة لوحدة المعالجة المركزية Arm وما مجموعه 2.3 تيرابايت من الذاكرة عالية السرعة.
من خلال مزيج من عدد كبير من عقد الحوسبة الفائقة ، سيشكل H200 في النهاية حاسوبا عملاقا ضخما ، وقد أعلنت بعض مراكز الحوسبة الفائقة أنها تدمج نظام GH200 في معدات الحوسبة الفائقة الخاصة بها.
وفقا للإعلان الرسمي لشركة NVIDIA ، سيستخدم مركز Ulich Supercomputing Center الألماني رقاقة GH200 الفائقة في الكمبيوتر العملاق Jupiter ، والذي يحتوي على 24000 عقدة GH200 وقوة 18.2 ميجاوات ، أي ما يعادل أكثر من 18000 كيلووات من الكهرباء في الساعة.
من المقرر تثبيت النظام في عام 2024 ، وبمجرد الاتصال بالإنترنت ، سيكون كوكب المشتري أكبر كمبيوتر عملاق قائم على هوبر تم الإعلان عنه على الإطلاق.
سيكون لدى المشتري ما يقرب من 93 (10 ^ 18) من FLOPS من قوة الحوسبة الذكاء الاصطناعي ، و 1E من FLOPS لمعدل الحوسبة FP64 ، و 1.2 بيتابايت من عرض النطاق الترددي في الثانية ، و 10.9 بيتابايت من LPDDR5X و 2.2 بيتابايت أخرى من ذاكرة HBM3.
بالإضافة إلى كوكب المشتري ، أعلنت مراكز الحوسبة الفائقة مثل مركز اليابان المشترك للحوسبة المتقدمة عالية الأداء ، ومركز تكساس للحوسبة المتقدمة ، والمركز الوطني لتطبيقات الحوسبة الفائقة في جامعة إلينوي في أوربانا شامبين أنها ستستخدم GH200 لترقية معدات الحوسبة الفائقة الخاصة بها.
إذن ، ما هي الطرق المبكرة لممارسي الذكاء الاصطناعي لتجربة GH200؟
كما أعلنت Oracle و CoreWeave عن خطط لتقديم مثيلات GH200 العام المقبل ، وستكون Amazon و Google Cloud و Microsoft Azure أيضا أول مزودي الخدمات السحابية الذين ينشرون مثيلات GH200.
ستوفر Nvidia نفسها أيضا إمكانية الوصول إلى GH200 من خلال منصة NVIDIA LaunchPad الخاصة بها.
وفيما يتعلق بمصنعي الأجهزة، تخطط ASUS و GIGABYTE و غيرها من الشركات المصنعة لبدء بيع معدات الخوادم المجهزة ب GH200 بحلول نهاية هذا العام.
الروابط المرجعية:
[1]
[2]
[3]
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تم إصدار أقوى شريحة تدريب طراز H200!141G ذاكرة كبيرة ، الذكاء الاصطناعي زيادة الاستدلال بنسبة تصل إلى 90٪ ، كما أنها متوافقة مع H100
مصدر المقال: الكيوبتات
انفجرت Nvidia Lao Huang مرة أخرى بجيل جديد من رقائق GPU ** H200 **.
قال الموقع الرسمي بشكل غير رسمي ، "أقوى وحدة معالجة رسومات في العالم ، مصممة للحوسبة الذكاء الاصطناعي والفائقة".
هذه المرة ، تمت زيادة الذاكرة الكبيرة ** 141 جيجابايت ** بشكل مباشر بنسبة 76٪ مقارنة ب 80 جيجابايت من H100.
وباعتبارها أول وحدة معالجة رسومات مزودة بذاكرة HBM3e، تمت زيادة عرض النطاق الترددي للذاكرة من 3.35 تيرابايت / ثانية إلى 4.8 تيرابايت / ثانية، بزيادة قدرها 43٪.
بدعم من HBM3e ، يضاعف H200 تقريبا أداء الاستدلال ل Llama-70B ، ويمكن أيضا تحسين GPT3-175B بنسبة 60٪.
يتوافق H200 تماما مع H100 ، مما يعني أن إضافة H200 إلى نظام موجود لا يتطلب أي تعديلات.
لا يمكن استخدام أقوى شريحة الذكاء الاصطناعي إلا لمدة نصف عام
باستثناء ترقية الذاكرة ، فإن H200 هو في الأساس نفس H100 ، والذي ينتمي أيضا إلى بنية Hopper.
عملية TSMC 4 نانومتر ، 80 مليار ترانزستور ، NVLink 4 900 جيجابايت في الثانية عالية السرعة ، كلها موروثة بالكامل.
حتى ذروة قوة الحوسبة تظل كما هي ، ولا تزال البيانات مألوفة مع FP64 Vector 33.5TFlops و FP64 Tensor 66.9TFlops.
لأسباب تتعلق بالإنتاج الضخم، تحتفظ Nvidia** بجزء صغير كتكرار ** لتحسين العائد.
مقارنة ب A100 الذي تم إصداره في عام 2020 ، فإن H200 أسرع 18 مرة من الاستدلال على GPT-3 175B فقط عن طريق ترقية الذاكرة.
من المتوقع أن يتم إطلاق H200 في الربع الثاني من عام 2024 ، لكن اسم H200 ، أقوى شريحة الذكاء الاصطناعي ، لا يمكن امتلاكه إلا لمدة نصف عام.
أيضا في الربع الرابع من عام 2024 ، ستتوفر أيضا B100 القائمة على بنية Blackwell من الجيل التالي ، والأداء الدقيق غير معروف بعد ، ويلمح الرسم البياني إلى نمو هائل.
**ستنشر مراكز الحوسبة الفائقة المتعددة عقد الحوسبة الفائقة GH200 **
بالإضافة إلى شريحة H200 نفسها ، أصدرت Nvidia أيضا سلسلة من المنتجات العنقودية المكونة منها هذه المرة.
الأول هو منصة ** HGX H200 ** ، وهي مجهزة ب 8 H200 على لوحة حامل HGX ، مع ذاكرة فيديو إجمالية تبلغ 1.1 تيرابايت ، وسرعة تشغيل فاصلة عائمة 8 بت تزيد عن 32P (10 ^ 15) FLOPS ، وهو ما يتوافق مع بيانات H100.
تستخدم HGX تقنيات التوصيل البيني عالي السرعة NVLink و NVSwitch من NVIDIA لتشغيل مجموعة واسعة من أحمال عمل التطبيقات بأعلى أداء ، بما في ذلك التدريب والاستدلال لطرز 175B الكبيرة.
تسمح الطبيعة المستقلة للوحة HGX بتوصيلها بنظام مضيف مناسب ، مما يسمح للمستخدمين بتخصيص الجزء غير GPU من خادمهم المتطور.
من خلال مزيج من عدد كبير من عقد الحوسبة الفائقة ، سيشكل H200 في النهاية حاسوبا عملاقا ضخما ، وقد أعلنت بعض مراكز الحوسبة الفائقة أنها تدمج نظام GH200 في معدات الحوسبة الفائقة الخاصة بها.
وفقا للإعلان الرسمي لشركة NVIDIA ، سيستخدم مركز Ulich Supercomputing Center الألماني رقاقة GH200 الفائقة في الكمبيوتر العملاق Jupiter ، والذي يحتوي على 24000 عقدة GH200 وقوة 18.2 ميجاوات ، أي ما يعادل أكثر من 18000 كيلووات من الكهرباء في الساعة.
من المقرر تثبيت النظام في عام 2024 ، وبمجرد الاتصال بالإنترنت ، سيكون كوكب المشتري أكبر كمبيوتر عملاق قائم على هوبر تم الإعلان عنه على الإطلاق.
سيكون لدى المشتري ما يقرب من 93 (10 ^ 18) من FLOPS من قوة الحوسبة الذكاء الاصطناعي ، و 1E من FLOPS لمعدل الحوسبة FP64 ، و 1.2 بيتابايت من عرض النطاق الترددي في الثانية ، و 10.9 بيتابايت من LPDDR5X و 2.2 بيتابايت أخرى من ذاكرة HBM3.
إذن ، ما هي الطرق المبكرة لممارسي الذكاء الاصطناعي لتجربة GH200؟
كما أعلنت Oracle و CoreWeave عن خطط لتقديم مثيلات GH200 العام المقبل ، وستكون Amazon و Google Cloud و Microsoft Azure أيضا أول مزودي الخدمات السحابية الذين ينشرون مثيلات GH200.
ستوفر Nvidia نفسها أيضا إمكانية الوصول إلى GH200 من خلال منصة NVIDIA LaunchPad الخاصة بها.
وفيما يتعلق بمصنعي الأجهزة، تخطط ASUS و GIGABYTE و غيرها من الشركات المصنعة لبدء بيع معدات الخوادم المجهزة ب GH200 بحلول نهاية هذا العام.
الروابط المرجعية:
[1]
[2]
[3]