ثورة الذكاء الاصطناعي غيرت بشكل جذري مشهد أشباه الموصلات. لقد وصلت ثلاث شركات—نفيديا، تايوان لصناعة أشباه الموصلات، وبروادكوم—إلى تقييمات تريليونية من خلال الاستفادة من الموجات المبكرة لطلب بنية تحتية للذكاء الاصطناعي. ومع ذلك، مع تطور الصناعة إلى ما بعد اعتماد وحدات معالجة الرسوميات (GPU) التي تلفت الأنظار، هناك تحول حاسم يحدث. تظهر أشباه الموصلات الذاكرة، لا سيما شرائح DRAM و NAND، كقاعدة أساسية تحدد ما إذا كانت أنظمة الذكاء الاصطناعي يمكنها التوسع بكفاءة. هذا التحول من المعالجات إلى حلول الذاكرة يمثل واحدة من الفرص الأكثر تقليلًا للتقدير في دورة السوق الحالية.
بالنسبة للمستثمرين الذين يتنقلون في فضاء بنية تحتية للذكاء الاصطناعي، فإن فهم أين يتدفق رأس المال بعد ذلك يهم بقدر ما يهم التعرف على الفائزين بالأمس. بينما تظل مجموعات وحدات معالجة الرسوميات مركزية لأعباء تدريب واستنتاج الذكاء الاصطناعي، يواجه مقدمو الخدمات السحابية—بما في ذلك مايكروسوفت، جوجل، أمازون، وفيسبوك—عقبة لا يمكن لوحدات معالجة الرسوميات وحدها حلها: وهي سرعة إدخال وإخراج البيانات من أنظمة الحوسبة. تقف شركة Micron Technology، الرائدة في إنتاج الذاكرة عالية النطاق (HBM)، وDRAM، وNAND، في مركز موجة الطلب الناشئة هذه. السؤال ليس هل ستهم أشباه الموصلات الذاكرة؛ بل أي الشركات ستستحوذ على أكبر قيمة مع توسع السوق.
نقص شرائح الذاكرة: DRAM و NAND يصبحان نقطة الاختناق الجديدة للذكاء الاصطناعي
لسنوات، اعتمدت تطبيقات الذكاء الاصطناعي العامة بشكل رئيسي على نماذج اللغة الكبيرة (LLMs) المصممة لتحليل النصوص وتوليدها. أظهرت ChatGPT قوة هذه الأنظمة، لكن التكنولوجيا لا تزال في بدايتها فقط، وتخدش السطح لما يمكن أن يحققه الذكاء الاصطناعي. يسعى مقدمو الخدمات السحابية الآن لتحقيق قدرات الجيل التالي بما في ذلك الذكاء الاصطناعي الوكيل، والأنظمة الذاتية، والروبوتات—تطبيقات تتطلب قدرًا أكبر بكثير من الاستنتاج الحاسوبي مقارنة بالدردشات الحالية.
هذه التصعيد في طموحات الذكاء الاصطناعي يترجم مباشرة إلى متطلبات ذاكرة أكبر. يتطلب تدريب ونشر نماذج الذكاء الاصطناعي المتقدمة معدلات نقل بيانات هائلة بين المعالجات وأنظمة الذاكرة. بدون سعة كافية من الذاكرة عالية النطاق (HBM) وسرعة نقل كافية لـ DRAM، حتى أقوى وحدات معالجة الرسوميات تصبح محرومة من البيانات. النتيجة هي هدر في القدرة الحاسوبية واستغلال غير فعال للموارد—وهو بالضبط نوع الاختناق الذي يخلق نقصًا في العرض وارتفاعًا في الأسعار.
تتوقع شركة TrendForce للأبحاث السوقية ضغطًا كبيرًا على أسعار سوق أشباه الموصلات للذاكرة. قد ترتفع أسعار DRAM بنسبة تصل إلى 60% خلال الربع الأول من عام 2026، في حين قد تشهد ذاكرة NAND فلاش زيادات في الأسعار تصل إلى 38%. هذه التوقعات ليست مجرد تكهنات؛ فهي تعكس تضييقًا حقيقيًا في قاعدة العرض مع استمرار تسارع الطلب من مزودي البنية التحتية السحابية. يتنافس مقدمو الخدمات السحابية الآن بنشاط على الحصول على حصص من شرائح الذاكرة، وهو ديناميك يرفع الأسعار ويؤكد على الأهمية الاستراتيجية لمنتجي الذاكرة.
دور مايكروسون الضروري: سد فجوة نقل البيانات في أعباء عمل الذكاء الاصطناعي
تعمل شركة Micron Technology عبر كامل منظومة الذاكرة، منتجة حلول الذاكرة عالية النطاق (HBM)، وDRAM، وNAND التي تعالج معًا تحديات البنية التحتية التي تخلقها أعباء العمل المتزايدة للذكاء الاصطناعي. لا تعتبر مجموعة منتجات الشركة زائدة عن الحاجة؛ بل كل تقنية تؤدي وظيفة محددة وحاسمة في نقل البيانات بكفاءة عبر أنظمة الذكاء الاصطناعي.
تمكن تقنية HBM من نقل البيانات بسرعة فائقة بين وحدات معالجة الرسوميات والنوى المعالجة، مما يحسن بشكل كبير زمن استنتاج النتائج. وتعمل DRAM كذاكرة العمل الأساسية للعمليات النشطة، بينما توفر NAND التخزين الدائم لأوزان النماذج، وبيانات التدريب، وحالة النظام. معًا، تشكل هذه التقنيات الثلاثة المكدس الكامل للذاكرة المطلوب للبنية التحتية الحديثة للذكاء الاصطناعي.
خلال الربع الأول من السنة المالية 2026 (المنتهي في 27 نوفمبر 2025)، أظهرت شركة Micron الزخم التجاري الكامن وراء هذه المتطلبات التقنية. أعلنت الشركة عن إيرادات بلغت 13.6 مليار دولار، بزيادة قدرها 57% على أساس سنوي. والأكثر إثارة للإعجاب، أن هذا النمو تسارع عبر كل قطاع من قطاعات الأعمال: حلول الذاكرة السحابية، وعمليات مراكز البيانات الأساسية، وتطبيقات الهواتف المحمولة، والأنظمة المدمجة/السيارات. تجاوزت هوامش الربح الإجمالي 40% عبر الأعمال، بينما تجاوزت هوامش التشغيل 30% في كل قطاع. تؤكد هذه المقاييس أن Micron لا تشهد مجرد نمو في الحجم؛ بل تولد إيرادات أكثر ربحية في كل سوق من أسواقها.
تُعدّ هوامش الربح مهمة بشكل كبير. تشير هوامش الربح الإجمالية والتشغيلية العالية إلى أن Micron يمكنها تلبية الطلب المتزايد مع الحفاظ على قوة التسعير—وهو مؤشر على أن قيود العرض حقيقية وأن السوق مستعد لدفع أسعار عالية مقابل سعة ذاكرة موثوقة. يختلف هذا الديناميك بشكل كبير عن دورات أشباه الموصلات السابقة حيث أدى فائض العرض في النهاية إلى ضغط على الهوامش على مستوى الصناعة.
النمو القياسي وتوسيع الهوامش: طريق Micron نحو الربحية بمليارات الدولارات
دمج محللو وول ستريت دورة الذاكرة الفائقة في توقعاتهم المالية لـ Micron بحماس ملحوظ. خلال الاثني عشر شهرًا الماضية (على أساس trailing twelve months)، حققت Micron إيرادات تقارب 42 مليار دولار وأرباحًا للسهم بقيمة 10 دولارات. ومن المتوقع أن يتضاعف الإيراد أكثر من مرتين بحلول السنة المالية 2027، بينما قد ترتفع أرباح السهم بأربعة أضعاف تقريبًا. هذه ليست تحسينات هامشية؛ بل تحول في قدرة الشركة على تحقيق الأرباح.
فكر في تداعيات التقييم لهذا النمو المتوقع. تتداول Micron حاليًا عند مضاعف سعر إلى الأرباح (P/E) مستقبلي يقارب 12.3—خصم كبير مقارنة مع قادة أشباه الموصلات الآخرين. نفيديا، وTSMC، وبروادكوم تسيطر على مضاعفات P/E مستقبلية تتراوح بين 30 وحتى ما يقرب من 60 طوال فترة ثورة الذكاء الاصطناعي. على الرغم من أن Micron لا تتنافس مباشرة مع هذه الشركات، إلا أن الفجوة في التقييم تبرز كيف أن السوق قد قلل من قيمة منتجي أشباه الموصلات الذاكرة مقارنة بأهميتهم في بنية تحتية للذكاء الاصطناعي.
الفجوة بين تقييم Micron الحالي وتقييم قادة وحدات المعالجة الرسومية/المعالجات تشير إلى إمكانات ارتفاع مهمة. إذا وصلت Micron ببساطة إلى مضاعف P/E مستقبلي قدره 23x (لا زالت مخفضة مقارنة بأقرانها)، فستصل إلى قيمة سوقية تقترب من 850 مليار دولار. وإذا أعطى السوق في النهاية Micron مضاعف P/E مستقبلي قدره 30x—وهو تقييم معقول لشركة تتحكم في نقطة اختناق حاسمة في بنية الذكاء الاصطناعي—فستصل قيمة Micron إلى تريليون دولار.
الفرصة الدولارية المتزايدة: لماذا ستسيطر أشباه الموصلات الذاكرة على استثمارات البنية التحتية
يمتد حجم الفرصة بالدولار إلى ما هو أبعد من مسار تقييم Micron الفردي. من المتوقع أن يصل السوق الإجمالي القابل للتوجيه (TAM) للذاكرة عالية النطاق إلى 100 مليار دولار بحلول عام 2028، أي تقريبًا ثلاثة أضعاف المستويات الحالية. يعكس هذا التوسع ليس فقط الطلب الدوري، بل التحولات الهيكلية في كيفية تخصيص استثمارات البنية التحتية للذكاء الاصطناعي عبر سلسلة قيمة الشرائح.
على مدى السنوات الثلاث الماضية، ركزت ميزانيات رأس المال لدى مقدمي الخدمات السحابية بشكل كبير على شراء وحدات معالجة الرسوميات وتطوير السيليكون المخصص—وهي مجالات تسيطر عليها نفيديا، وAMD، ومصممو ASIC المخصصون. ستتجه المرحلة التالية من استثمار البنية التحتية بشكل متزايد نحو طبقة الذاكرة التي تعتمد عليها هذه المعالجات. فكر في الأمر على أنه التنويع الحتمي لإنفاق البنية التحتية للذكاء الاصطناعي بمجرد نضوج طبقة الحوسبة والوصول إلى طاقتها.
تقف Micron في موقع المستفيد الرئيسي من إعادة تخصيص رأس المال هذه. فمحفظة الشركة الواسعة عبر HBM، وDRAM، وNAND—بالإضافة إلى حجم التصنيع وخبرتها—تجعل من الصعب على العملاء العثور على بدائل. ليست سوقًا مجزأة حيث يمكن لعشرات المنافسين تقسيم الفرص؛ بل مساحة مركزة حيث تسيطر الشركات الرائدة على حصة غير متناسبة من السوق.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
من عنق الزجاجة في DRAM إلى فرصة تريليون دولار: لماذا ستحدد أشباه الموصلات للذاكرة بنية الذكاء الاصطناعي
ثورة الذكاء الاصطناعي غيرت بشكل جذري مشهد أشباه الموصلات. لقد وصلت ثلاث شركات—نفيديا، تايوان لصناعة أشباه الموصلات، وبروادكوم—إلى تقييمات تريليونية من خلال الاستفادة من الموجات المبكرة لطلب بنية تحتية للذكاء الاصطناعي. ومع ذلك، مع تطور الصناعة إلى ما بعد اعتماد وحدات معالجة الرسوميات (GPU) التي تلفت الأنظار، هناك تحول حاسم يحدث. تظهر أشباه الموصلات الذاكرة، لا سيما شرائح DRAM و NAND، كقاعدة أساسية تحدد ما إذا كانت أنظمة الذكاء الاصطناعي يمكنها التوسع بكفاءة. هذا التحول من المعالجات إلى حلول الذاكرة يمثل واحدة من الفرص الأكثر تقليلًا للتقدير في دورة السوق الحالية.
بالنسبة للمستثمرين الذين يتنقلون في فضاء بنية تحتية للذكاء الاصطناعي، فإن فهم أين يتدفق رأس المال بعد ذلك يهم بقدر ما يهم التعرف على الفائزين بالأمس. بينما تظل مجموعات وحدات معالجة الرسوميات مركزية لأعباء تدريب واستنتاج الذكاء الاصطناعي، يواجه مقدمو الخدمات السحابية—بما في ذلك مايكروسوفت، جوجل، أمازون، وفيسبوك—عقبة لا يمكن لوحدات معالجة الرسوميات وحدها حلها: وهي سرعة إدخال وإخراج البيانات من أنظمة الحوسبة. تقف شركة Micron Technology، الرائدة في إنتاج الذاكرة عالية النطاق (HBM)، وDRAM، وNAND، في مركز موجة الطلب الناشئة هذه. السؤال ليس هل ستهم أشباه الموصلات الذاكرة؛ بل أي الشركات ستستحوذ على أكبر قيمة مع توسع السوق.
نقص شرائح الذاكرة: DRAM و NAND يصبحان نقطة الاختناق الجديدة للذكاء الاصطناعي
لسنوات، اعتمدت تطبيقات الذكاء الاصطناعي العامة بشكل رئيسي على نماذج اللغة الكبيرة (LLMs) المصممة لتحليل النصوص وتوليدها. أظهرت ChatGPT قوة هذه الأنظمة، لكن التكنولوجيا لا تزال في بدايتها فقط، وتخدش السطح لما يمكن أن يحققه الذكاء الاصطناعي. يسعى مقدمو الخدمات السحابية الآن لتحقيق قدرات الجيل التالي بما في ذلك الذكاء الاصطناعي الوكيل، والأنظمة الذاتية، والروبوتات—تطبيقات تتطلب قدرًا أكبر بكثير من الاستنتاج الحاسوبي مقارنة بالدردشات الحالية.
هذه التصعيد في طموحات الذكاء الاصطناعي يترجم مباشرة إلى متطلبات ذاكرة أكبر. يتطلب تدريب ونشر نماذج الذكاء الاصطناعي المتقدمة معدلات نقل بيانات هائلة بين المعالجات وأنظمة الذاكرة. بدون سعة كافية من الذاكرة عالية النطاق (HBM) وسرعة نقل كافية لـ DRAM، حتى أقوى وحدات معالجة الرسوميات تصبح محرومة من البيانات. النتيجة هي هدر في القدرة الحاسوبية واستغلال غير فعال للموارد—وهو بالضبط نوع الاختناق الذي يخلق نقصًا في العرض وارتفاعًا في الأسعار.
تتوقع شركة TrendForce للأبحاث السوقية ضغطًا كبيرًا على أسعار سوق أشباه الموصلات للذاكرة. قد ترتفع أسعار DRAM بنسبة تصل إلى 60% خلال الربع الأول من عام 2026، في حين قد تشهد ذاكرة NAND فلاش زيادات في الأسعار تصل إلى 38%. هذه التوقعات ليست مجرد تكهنات؛ فهي تعكس تضييقًا حقيقيًا في قاعدة العرض مع استمرار تسارع الطلب من مزودي البنية التحتية السحابية. يتنافس مقدمو الخدمات السحابية الآن بنشاط على الحصول على حصص من شرائح الذاكرة، وهو ديناميك يرفع الأسعار ويؤكد على الأهمية الاستراتيجية لمنتجي الذاكرة.
دور مايكروسون الضروري: سد فجوة نقل البيانات في أعباء عمل الذكاء الاصطناعي
تعمل شركة Micron Technology عبر كامل منظومة الذاكرة، منتجة حلول الذاكرة عالية النطاق (HBM)، وDRAM، وNAND التي تعالج معًا تحديات البنية التحتية التي تخلقها أعباء العمل المتزايدة للذكاء الاصطناعي. لا تعتبر مجموعة منتجات الشركة زائدة عن الحاجة؛ بل كل تقنية تؤدي وظيفة محددة وحاسمة في نقل البيانات بكفاءة عبر أنظمة الذكاء الاصطناعي.
تمكن تقنية HBM من نقل البيانات بسرعة فائقة بين وحدات معالجة الرسوميات والنوى المعالجة، مما يحسن بشكل كبير زمن استنتاج النتائج. وتعمل DRAM كذاكرة العمل الأساسية للعمليات النشطة، بينما توفر NAND التخزين الدائم لأوزان النماذج، وبيانات التدريب، وحالة النظام. معًا، تشكل هذه التقنيات الثلاثة المكدس الكامل للذاكرة المطلوب للبنية التحتية الحديثة للذكاء الاصطناعي.
خلال الربع الأول من السنة المالية 2026 (المنتهي في 27 نوفمبر 2025)، أظهرت شركة Micron الزخم التجاري الكامن وراء هذه المتطلبات التقنية. أعلنت الشركة عن إيرادات بلغت 13.6 مليار دولار، بزيادة قدرها 57% على أساس سنوي. والأكثر إثارة للإعجاب، أن هذا النمو تسارع عبر كل قطاع من قطاعات الأعمال: حلول الذاكرة السحابية، وعمليات مراكز البيانات الأساسية، وتطبيقات الهواتف المحمولة، والأنظمة المدمجة/السيارات. تجاوزت هوامش الربح الإجمالي 40% عبر الأعمال، بينما تجاوزت هوامش التشغيل 30% في كل قطاع. تؤكد هذه المقاييس أن Micron لا تشهد مجرد نمو في الحجم؛ بل تولد إيرادات أكثر ربحية في كل سوق من أسواقها.
تُعدّ هوامش الربح مهمة بشكل كبير. تشير هوامش الربح الإجمالية والتشغيلية العالية إلى أن Micron يمكنها تلبية الطلب المتزايد مع الحفاظ على قوة التسعير—وهو مؤشر على أن قيود العرض حقيقية وأن السوق مستعد لدفع أسعار عالية مقابل سعة ذاكرة موثوقة. يختلف هذا الديناميك بشكل كبير عن دورات أشباه الموصلات السابقة حيث أدى فائض العرض في النهاية إلى ضغط على الهوامش على مستوى الصناعة.
النمو القياسي وتوسيع الهوامش: طريق Micron نحو الربحية بمليارات الدولارات
دمج محللو وول ستريت دورة الذاكرة الفائقة في توقعاتهم المالية لـ Micron بحماس ملحوظ. خلال الاثني عشر شهرًا الماضية (على أساس trailing twelve months)، حققت Micron إيرادات تقارب 42 مليار دولار وأرباحًا للسهم بقيمة 10 دولارات. ومن المتوقع أن يتضاعف الإيراد أكثر من مرتين بحلول السنة المالية 2027، بينما قد ترتفع أرباح السهم بأربعة أضعاف تقريبًا. هذه ليست تحسينات هامشية؛ بل تحول في قدرة الشركة على تحقيق الأرباح.
فكر في تداعيات التقييم لهذا النمو المتوقع. تتداول Micron حاليًا عند مضاعف سعر إلى الأرباح (P/E) مستقبلي يقارب 12.3—خصم كبير مقارنة مع قادة أشباه الموصلات الآخرين. نفيديا، وTSMC، وبروادكوم تسيطر على مضاعفات P/E مستقبلية تتراوح بين 30 وحتى ما يقرب من 60 طوال فترة ثورة الذكاء الاصطناعي. على الرغم من أن Micron لا تتنافس مباشرة مع هذه الشركات، إلا أن الفجوة في التقييم تبرز كيف أن السوق قد قلل من قيمة منتجي أشباه الموصلات الذاكرة مقارنة بأهميتهم في بنية تحتية للذكاء الاصطناعي.
الفجوة بين تقييم Micron الحالي وتقييم قادة وحدات المعالجة الرسومية/المعالجات تشير إلى إمكانات ارتفاع مهمة. إذا وصلت Micron ببساطة إلى مضاعف P/E مستقبلي قدره 23x (لا زالت مخفضة مقارنة بأقرانها)، فستصل إلى قيمة سوقية تقترب من 850 مليار دولار. وإذا أعطى السوق في النهاية Micron مضاعف P/E مستقبلي قدره 30x—وهو تقييم معقول لشركة تتحكم في نقطة اختناق حاسمة في بنية الذكاء الاصطناعي—فستصل قيمة Micron إلى تريليون دولار.
الفرصة الدولارية المتزايدة: لماذا ستسيطر أشباه الموصلات الذاكرة على استثمارات البنية التحتية
يمتد حجم الفرصة بالدولار إلى ما هو أبعد من مسار تقييم Micron الفردي. من المتوقع أن يصل السوق الإجمالي القابل للتوجيه (TAM) للذاكرة عالية النطاق إلى 100 مليار دولار بحلول عام 2028، أي تقريبًا ثلاثة أضعاف المستويات الحالية. يعكس هذا التوسع ليس فقط الطلب الدوري، بل التحولات الهيكلية في كيفية تخصيص استثمارات البنية التحتية للذكاء الاصطناعي عبر سلسلة قيمة الشرائح.
على مدى السنوات الثلاث الماضية، ركزت ميزانيات رأس المال لدى مقدمي الخدمات السحابية بشكل كبير على شراء وحدات معالجة الرسوميات وتطوير السيليكون المخصص—وهي مجالات تسيطر عليها نفيديا، وAMD، ومصممو ASIC المخصصون. ستتجه المرحلة التالية من استثمار البنية التحتية بشكل متزايد نحو طبقة الذاكرة التي تعتمد عليها هذه المعالجات. فكر في الأمر على أنه التنويع الحتمي لإنفاق البنية التحتية للذكاء الاصطناعي بمجرد نضوج طبقة الحوسبة والوصول إلى طاقتها.
تقف Micron في موقع المستفيد الرئيسي من إعادة تخصيص رأس المال هذه. فمحفظة الشركة الواسعة عبر HBM، وDRAM، وNAND—بالإضافة إلى حجم التصنيع وخبرتها—تجعل من الصعب على العملاء العثور على بدائل. ليست سوقًا مجزأة حيث يمكن لعشرات المنافسين تقسيم الفرص؛ بل مساحة مركزة حيث تسيطر الشركات الرائدة على حصة غير متناسبة من السوق.