يؤدي تسارع صناعة الذكاء الاصطناعي إلى زيادة الطلب على 1.6T OSFP-XD

يزدهر الطلب على أجهزة الذكاء الاصطناعي، ومن المتوقع أن تتسارع وتيرة شحن رقائق الحوسبة. استنادًا إلى أبحاث FiberMall حول سلسلة صناعة الطاقة الحاسوبية، تتوقع شركة FiberMall أن تصل شحنات رقائق السلسلة H وB من NVIDIA إلى 3.56 مليون و350,000 وحدة على التوالي في عام 2024. وفي عام 2025، مع التسليم الإضافي لـ GB200، سيرتفع الإجمالي ومن المتوقع أن تصل شحنات وحدات معالجة الرسوميات من السلسلة B إلى 2.5 مليون وحدة. بالإضافة إلى ذلك، تتوقع شركة FiberMall أن يستمر أيضًا نشر TPU من Google وAMD's MI300، وكلها ستؤدي إلى زيادة متزامنة للوحدات الضوئية 800G OSFP و1.6T OSFP-XD على مستوى الشبكة.

ومع التطورات الإيجابية في سلسلة الصناعة، من المتوقع أن يتجاوز الطلب على 1.6T التوقعات. في OFC 2024، عرض العديد من العارضين أحدث منتجات الوحدات الضوئية 1.6T OSFP-XD. في السابق، قامت شريحة Blackwell AI الجديدة من NVIDIA والتي تم الإعلان عنها في مؤتمر GTC برفع متطلبات أعلى للاتصال البيني، وتتيح محولات السلسلة X800 إنشاء شبكات 1.6T. وفي الوقت نفسه، يتم أيضًا إنشاء سلسلة صناعة الوحدات الضوئية الأولية تدريجيًا، حيث تتوقع Marvell نشر 1.6T DSP مع قناة واحدة تبلغ 200G بحلول نهاية عام 2024، وتشير Broadcom إلى أن 200G EML جاهز للإنتاج الضخم. تعتقد شركة FiberMall أن سلسلة صناعة 1.6T، سواء في المنبع أو في المصب، تعمل على تسريع نضجها. فيما يتعلق بالنشر، تتوقع شركة FiberMall أنه في النصف الثاني من عام 2024، من المحتمل أن يتم نشر الوحدات الضوئية 1.6T OSFP-XD بالتنسيق مع الإنتاج الضخم لشرائح B-series من NVIDIA، مما يحقق في البداية زيادة صغيرة الحجم، ثم بعد ذلك. رؤية انتشار واسع النطاق في عام 2025. من الناحية التكنولوجية، تعتقد شركة FiberMall أن الوضع الفردي لـ EML سيظل هو الاتجاه السائد في عصر 1.6T، مع التفاؤل أيضًا بشأن النمو السريع لمعدل تغلغل الحلول التقنية الجديدة مثل ضوئيات السيليكون والخطية. -محرك البصريات القابلة للتوصيل (LPO).

وفيما يتعلق بالطلب، تتوقع شركة FiberMall أنه في عام 2025:

1) سينتقل الطلب من أكبر 1-2 من العملاء الخارجيين بسرعة من 800G OSFP إلى 1.6T، مما يؤدي إلى زيادة سريعة في الوحدات الضوئية 1.6T OSFP-XD؛

2) في حين أن طلب بعض العملاء على 800G OSFP قد ينخفض ​​بسبب الانتقال إلى سرعات أعلى، فإن مجموعة أخرى من طلبات العملاء ستتحول من 400G OSFP إلى 800G OSFP، مما يوفر دعمًا معينًا للطلب الإجمالي على 800G OSFP.

يعتمد تحليل سيناريو FiberMall بشأن الشحنة الإجمالية البالغة 1.6T في عام 2025 على متغيرين أساسيين: 1) الازدهار العام لشراء أجهزة الذكاء الاصطناعي (شحنة وحدة معالجة الرسومات من السلسلة B التي تبلغ 2-3 مليون وحدة)؛ 2) الجدول الزمني لنضج شبكة 1.6T (نسبة وحدات معالجة الرسومات من السلسلة B المقترنة بحلول شبكات 1.6T تبلغ 70%-90%). ويشير التحليل إلى أن إجمالي الشحنة 1.6T OSFP-XD وستتراوح الوحدات الضوئية في عام 2025 بين 3.6 و5.95 مليون وحدة، مع سيناريو محايد عند 4.7 مليون وحدة، وهو أعلى من توقعات السوق الحالية.

تحليل السيناريو حسب الطلب على الوحدات الضوئية 1.6T OSFP-XD

أجرت شركة FiberMall تحليلاً شاملاً، مع الأخذ في الاعتبار الشحن المتوقع لرقائق الذكاء الاصطناعي مثل NVIDIA وTPU وMI300، والارتباط بين الوحدات الضوئية ورقائق الذكاء الاصطناعي، بالإضافة إلى اختيار تكوينات سرعة الوحدة الضوئية. يشير التحليل إلى أن الطلب على الوحدات الضوئية 800G OSFP و1.6T OSFP-XD في عام 2025 قد يصل إلى 7.91 مليون و4.7 مليون وحدة على التوالي. الافتراضات الرئيسية هي كما يلي:

  • توقعات شحن شرائح الذكاء الاصطناعي: في مؤتمر GTC 2024، أعلنت NVIDIA عن الجيل الأول من وحدات معالجة الرسوميات السحابية من السلسلة B استنادًا إلى بنية Blackwell، بالإضافة إلى الشريحة الفائقة الجديدة ذات بنية GB200 CPU+GPU ووحدة الحوسبة GB200 NVL72 المقابلة، والتي يمكنها توفير أداء 1E Flops على مستوى الحوسبة الفائقة في خزانة واحدة، مما يحقق ترقية الأداء من الشريحة إلى النظام. بالإضافة إلى وحدات معالجة الرسومات ذات الأغراض العامة، تتوقع شركة FiberMall أن يستمر أيضًا نشر TPU من Google وMI300 من AMD، مما يزيد الطلب على تكوينات الوحدة الضوئية 800G OSFP/1.6T OSFP-XD.
  • تقدير الارتباط بين الوحدات الضوئية وشرائح الذكاء الاصطناعي: في ظل بنية شبكة InfiniBand ذات الشجرة الدهنية، نظرًا لخصائص الشبكة غير المتقاربة، يكون إجمالي عرض النطاق الترددي في كل طبقة شبكة ثابتًا. استنادًا إلى الافتراض بأن نسبة بطاقات تسريع الذكاء الاصطناعي إلى بطاقات الشبكة هي 1:1، تحسب شركة FiberMall أن نسبة الوحدات الضوئية H100 إلى 800G OSFP هي 1:3 في بنية شبكة ثلاثية الطبقات و1:2 في بنية شبكة ثنائية الطبقات بنية الطبقة. في مؤتمر GTC 2024، أعلنت NVIDIA عن سلسلة مفاتيح X800، ومن بينها محول Q3400-RA 4U المعتمد على بروتوكول InfiniBand الذي يحتوي على 144 منفذ OSFP بسرعة 800 جيجا، والتي يمكن تخصيصها بشكل مكافئ لـ 72 منفذ 1.6T. ترى شركة FiberMall أن أداء محولات سلسلة Quantum-X800 ذات 144 منفذًا قد تحسن بشكل كبير مقارنة بالجيل السابق من سلسلة QM9700 ذات 64 منفذًا، وعدد المجموعات التي تدعمها محولات Quantum-X800 ثنائية الطبقة في بنية الشجرة الدهنية ازداد. من منظور محافظ نسبيًا، تتوقع شركة FiberMall الطلب الفعال على الوحدات الضوئية استنادًا إلى نسبة 1:2 من وحدات معالجة الرسوميات من السلسلة B إلى الوحدات الضوئية 1.6T OSFP-XD.
  • اختيار تكوينات سرعة الوحدة الضوئية: بشكل عام، تتوقع شركة FiberMall أن يميل مقدمو الخدمات السحابية أو الشركات المصنعة للذكاء الاصطناعي إلى إعطاء الأولوية لتكوين الشبكات عالية السرعة لتحقيق أقصى قدر من أداء الحوسبة لمجموعاتهم. ومع ذلك، بالنظر إلى أن النظام البيئي للأجهزة 1.6T لم ينضج بعد بشكل كامل في عام 2024، تتوقع FiberMall أن العملاء قد يعتمدون في المقام الأول سرعات 800G OSFP عند نشر شبكات صغيرة الحجم مع شرائح B-series من NVIDIA هذا العام، وتكوين 1.6T المقترن بـ B. من المتوقع أن تصبح رقائق السلسلة هي الحل السائد بحلول عام 2025 مع نضوج سلسلة صناعة 1.6T. في المرحلة الحالية، ليس لدى الصناعة توجيهات واضحة للطلب بشأن إجمالي شحنة وحدات معالجة الرسومات من السلسلة B في عام 2025، وتخضع توقعات شحن شرائح B-series أيضًا لمتغيرات مختلفة، مثل الجدول الزمني لإصدار GPT-5 ونشر نماذج أو تطبيقات كبيرة جديدة للذكاء الاصطناعي، واستكشاف الجدوى التجارية للذكاء الاصطناعي. ستؤثر هذه العوامل على المشتريات الشاملة لأجهزة الذكاء الاصطناعي من قبل مقدمي الخدمات السحابية الرائدين وغيرهم من المشاركين في صناعة الذكاء الاصطناعي. لاحظت شركة FiberMall أن توقعات السوق للنفقات الرأسمالية لأكبر أربعة مزودي خدمات سحابية في أمريكا الشمالية في عام 2024 قد تم تعديلها صعودًا خلال العام الماضي، وقد صرحت هذه الشركات علنًا بأنها ستواصل زيادة استثماراتها في البنية التحتية للذكاء الاصطناعي، مما يعكس التقدم المستدام في صناعة الذكاء الاصطناعي وتوسيع الطلب الأساسي على الأجهزة. تعتقد شركة FiberMall أن الإنفاق الرأسمالي للشركات الرائدة على أجهزة الذكاء الاصطناعي في عام 2025 سيظل متأثرًا بالتغيرات في صناعة الذكاء الاصطناعي.

أجرت شركة FiberMall تحليلاً لسيناريوهات الشحن الإجمالي للوحدات الضوئية OSFP-XD سعة 1.6T في عام 2025، باستخدام متغيرين أساسيين: 1) الازدهار العام لشراء أجهزة الذكاء الاصطناعي (شحنة وحدة معالجة الرسومات من السلسلة B التي تبلغ 2-3 مليون وحدة)؛ 2) الجدول الزمني لنضج شبكة 1.6T (نسبة وحدات معالجة الرسومات من السلسلة B المقترنة بحلول شبكات 1.6T بنسبة 70%-90%، والباقي هو 800G OSFP).

بالنظر إلى ازدهار الطلب في صناعة الذكاء الاصطناعي والجدول الزمني للنضج التجاري للتقنيات الرئيسية للمنافذ الضوئية 1.6T كمتغيرات، يشير تحليل السيناريو الخاص بـ FiberMall إلى أن إجمالي الشحن من الوحدات الضوئية 1.6T OSFP-XD في عام 2025 من المتوقع أن يكون في نطاق 3.6-5.95 مليون وحدة، مع المستوى العام للنطاق أعلى من توقعات السوق الحالية. يحافظ الجيل الجديد من مجموعات الحوسبة على ارتفاع الطلب على الوحدات الضوئية عالية السرعة، ويتردد صدى ازدهار سلسلة الصناعة في الارتفاع.

في ظل موجة تطور الذكاء الاصطناعي، يُظهر الجيل الجديد من مجموعات الحوسبة اتجاهين من التغيير:

  • النمو السريع في حركة مرور الشبكة، مع حركة المرور من الشرق إلى الغرب باعتبارها المحرك الرئيسي: وفقًا لـ "الكتاب الأبيض حول تطور شبكة مراكز الحوسبة الذكية (2023)" الذي نشره معهد أبحاث تشاينا موبايل، تتطلب الحوسبة الذكية قدرًا كبيرًا من الحوسبة المتوازية ، مما يؤدي إلى إنشاء أحجام بيانات (الاتصال الجماعي) تصل إلى مئات الجيجابايت. تعتقد شركة FiberMall أنه على خلفية انتشار النماذج الكبيرة، فإن "حرب الألف نموذج" ستؤدي إلى زيادة نمو حركة مرور الشبكة. وفي الوقت نفسه، زادت نسبة حركة المرور من الشرق إلى الغرب (بين الخوادم) بشكل ملحوظ، ووفقًا لتوقعات شركة سيسكو، ربما تكون نسبة حركة المرور من الشرق إلى الغرب الحالية قد وصلت إلى 80-90% من حركة مرور الشبكة.
  • تنتقل بنية الشبكة النموذجية من البنية الشبيهة بالشجرة ثلاثية الطبقات إلى البنية متعددة النواة التي تمثلها بنية الورقة العمودية: وفقًا للمعلومات العامة من التدريب المشترك بين NVIDIA وInspur China على شبكة مركز بيانات الجيل الجديد من NVIDIA المنتجات، كانت مراكز البيانات تعتمد بشكل أساسي على البنية التقليدية ثلاثية الطبقات، مع بنية شبيهة بالشجرة، تحتوي على مركزين وتتقاربان تدريجيًا للأعلى، مع حركة المرور من الشمال إلى الجنوب باعتبارها الاتجاه الرئيسي. تتكون بنية الشبكة ثلاثية الطبقات من طبقة الوصول وطبقة التجميع والطبقة الأساسية. تتصل طبقة الوصول مباشرة بالمستخدم، وتربط طبقة التجميع طبقة الوصول والطبقة الأساسية، وتوفر خدمات مثل جدران الحماية وSSL offالتحميل، وكشف التسلل، وتحليل الشبكة، والطبقة الأساسية هي العمود الفقري للتبديل عالي السرعة للشبكة. نظرًا للطلب المتزايد على أداء الاتصالات في الحوسبة الذكية، فإن الطلب على التدريب والاستدلال السحابي للذكاء الاصطناعي يدفع تطور بنية شبكة مركز البيانات نحو شكل متعدد الطبقات وغير متقارب وأكثر قابلية للتطوير.

تعتقد شركة FiberMall أن النمو الإجمالي في حركة المرور لمركز الحوسبة الذكية وتطور بنية الشبكة يؤديان معًا إلى زيادة الطلب على الاتصال، مما يؤدي إلى النمو في استخدام الوحدات الضوئية وترقية السرعة.

تستخدم مراكز بيانات NVIDIA بنية الشجرة الدهنية لبناء شبكة غير متقاربة، حيث يمكن للشبكة ثلاثية الطبقات توصيل عقد أكثر من الشبكة ذات الطبقتين. بالمقارنة مع نموذج الشجرة الدهنية التقليدي، يستخدم نموذج الشجرة الدهنية لمركز بيانات NVIDIA عددًا كبيرًا من المفاتيح عالية الأداء لبناء شبكة واسعة النطاق غير قابلة للحظر، بل ويزيد من منافذ الوصلة الصاعدة لتجنب فقدان الحزمة وانهيار الشبكة. أكثر تشابهًا مع بنية الانتشار. من حيث عدد الطبقات، هناك خيارات للشبكات ذات طبقتين وثلاث طبقات، حيث يمكن لبنية الشبكة ثلاثية الطبقات توصيل عقد أكثر من البنية المكونة من طبقتين، مما يسمح بربط المزيد من شرائح الذكاء الاصطناعي، وهو مناسب للشبكات تدريب نماذج الذكاء الاصطناعي الكبيرة بمعلمات أكبر.

بنية شبكة تقليدية ثلاثية الطبقات مع طبقات الوصول والتجميع والطبقات الأساسية
بنية شبكة تقليدية ثلاثية الطبقات مع طبقات الوصول والتجميع والطبقات الأساسية
DGX SuperPOD بنية شجرة الدهون ثلاثية الطبقات
DGX SuperPOD بنية شجرة الدهون ثلاثية الطبقات

يوفر DGX H100 SuperPOD خيارين للشبكات:

  • اعتماد نهج شبكي مشابه لـ A100 SuperPOD، باستخدام بطاقات الشبكة CX-7 ومفاتيح InfiniBand لتحقيق اتصالات عبر الخادم. وفقًا للرسم التخطيطي الموجود على موقع NVIDIA، تفترض شركة FiberMall أن كل خادم H100 تم تكوينه بـ 8 بطاقات شبكة ذكية أحادية المنفذ 400G ConnectX-7، مع أربع بطاقات شبكة CX-7 مدمجة في وحدة شبكة واحدة، ووحدتي شبكة متصلتين بـ تبديل InfiniBand مع 2 * 400 جرام ندر كل منفذ من منافذ OSFP، على سبيل المثال، يتوافق جانب بطاقة الشبكة مع 4 وحدات بصرية OSFP بسرعة 800 جيجا بايت، ويتطلب اتصال بطاقة الشبكة بمحول الطبقة الأولى أيضًا 4 وحدات بصرية OSFP بسرعة 800 جيجا بايت، بإجمالي 8 وحدات بصرية OSFP بسرعة 800 جيجا بايت لشبكة الطبقة الأولى. نظرًا لخصائص الشبكة غير المتقاربة، فإن إجمالي عرض النطاق الترددي المطابق لكل طبقة في بنية شبكة InfiniBand ذات الشجرة الدهنية ثابت، واستنادًا إلى افتراض أن نسبة بطاقات تسريع الذكاء الاصطناعي إلى بطاقات الشبكة هي 1:1، قامت شركة FiberMall بحساب ذلك تبلغ نسبة الوحدات الضوئية H100 إلى 800G OSFP 1:3 في بنية الشبكة ثلاثية الطبقات و1:2 في البنية المكونة من طبقتين.
رسم تخطيطي للاتصال الداخلي لنظام DGX H100
رسم تخطيطي للاتصال الداخلي لنظام DGX H100
  • اعتماد نظام تحويل NVLink الجديد: إضفاء الطابع الخارجي على NVLink المستخدم للتوصيل البيني لوحدة معالجة الرسومات عالية السرعة داخل الخوادم إلى مجموعة مكونة من 256 عقدة، باستخدام الجيل الرابع من NVLink والجيل الثالث من NVSwitch لبناء شبكة NVLink ذات طبقتين (L1 وL2) ، مما يتيح الاتصال البيني المباشر والوصول إلى الذاكرة المشتركة لما يصل إلى 32 عقدة (256 وحدة معالجة رسومات). في حل شبكة NVLink هذا، يتم ربط وحدات معالجة الرسومات وL1 NVSwitch (داخل الخزانة) باستخدام الكابلات النحاسية، بينما تستخدم طبقات L1 وL2 NVSwitch التوصيل البيني البصري، مما يؤدي إلى طلب 18 زوجًا من اتصالات 800G OSFP، بنسبة أعلى من H100 إلى 800G OSFP مقارنة بخيار الشبكة الأول. في الكمبيوتر العملاق 256 DGX GH200 AI، تقدر شركة FiberMall أن نسبة الوحدات الضوئية GH200 إلى 800G OSFP قد تزيد إلى 1:9، مع الافتراض الأساسي بأن الاتصال البيني بين كل عقدة (مع 8 شرائح GH200) و3 L1 NVS داخل تستخدم العقدة الكابلات النحاسية، ويتم توصيل العقد الـ 32 في DGX GH200 بـ 36 L2 NVS من خلال التوصيل البيني البصري، مما يؤدي إلى 1,152 (32*36) زوجًا من الاتصالات بين L1 وL2، بما يتوافق مع 2,304 وحدة بصرية 800G OSFP، زيادة كبيرة في استخدام الوحدة البصرية.
رسم تخطيطي لتكوين شبكة البيانات لنظام NVIDIA DGX H100
رسم تخطيطي لتكوين شبكة البيانات لنظام NVIDIA DGX H100
مقارنة بين مجموعات DGX A100 256 SuperPOD وDGX H100 256 SuperPOD و256 DGX GH200
مقارنة بين مجموعات DGX A100 256 SuperPOD وDGX H100 256 SuperPOD و256 DGX GH200

تجدر الإشارة إلى أنه لتوسيع المجموعة بشكل أكبر إلى نطاق يزيد عن ألف وحدة معالجة رسوميات استنادًا إلى SuperPOD المترابطة ذات 256 وحدة معالجة رسومات، يجب استخدام InfiniBand Links للشبكات الموسعة. بأخذ مجموعة 1024-GPU كمثال، وفقًا لموقع NVIDIA على الويب، من خلال تشكيل بنية شبكة ذات طبقتين من خلال NDR InfiniBand Links، يمكن توصيل 4 مجموعات DGX H100 256 SuperPOD لتحقيق الاتصال البيني المباشر لـ 1024 وحدة معالجة رسوميات. يعتقد FiberMall أنه في شبكة InfiniBand خارج SuperPOD، يتم استخدام 800 جرام OSFP لا يزال من الممكن تقدير الوحدات الضوئية بناءً على علاقة النسبة السابقة في البنية المكونة من طبقتين، أي أن نسبة وحدة معالجة الرسوميات H100 إلى الوحدة الضوئية 800G OSFP تبلغ تقريبًا 1:2.

مقارنة بين مجموعات DGX A100 256 SuperPOD وDGX H100 256 SuperPOD و256 DGX GH200
مقارنة بين مجموعات DGX A100 256 SuperPOD وDGX H100 256 SuperPOD و256 DGX GH200

في مؤتمر GTC 2024، أعلنت NVIDIA عن GB200 NVL72، والذي يتكون من 18 عقدة حوسبة، و9 أدراج NVLink Switch، و1 Q3400-RA 4U InfiniBand. تتكون كل عقدة حوسبة من 4 وحدات معالجة رسوميات Blackwell ووحدتي معالجة مركزية، مما يعني أن GB2 NVL200 يحتوي على 72 وحدة معالجة رسوميات. تم تكوين كل عقدة باستخدام 72 بطاقات شبكة ConnectX-4 بسرعة 800 جيجا، وتظل نسبة وحدات معالجة الرسومات Blackwell إلى بطاقات الشبكة CX-8 8:1. وهذا يعني أنه عند استخدام InfiniBand لشبكات الواجهة الخلفية للذكاء الاصطناعي، فإن نسبة وحدات معالجة الرسومات من السلسلة B إلى الوحدات الضوئية 1T OSFP-XD ستستمر بنفس النسبة مثل عصر H1.6 (100:1 للشبكات ثنائية الطبقة، 2:1 للشبكات الثلاث - طبقة الشبكات).

كما ذكرنا في القسم السابق، فإن محولات سلسلة Quantum-X800 الجديدة من NVIDIA، والتي يمكن تهيئتها مع 144 منفذ 800G OSFP (أي ما يعادل 72 منفذ 1.6T)، تمكن من إنشاء شبكات 1.6T. تم تحسين أدائها بشكل ملحوظ مقارنة بالجيل السابق من المحولات ذات 64 منفذًا، كما زاد عدد المجموعات التي تدعمها محولات Quantum-X800 ثنائية الطبقة في بنية الشجرة الدهنية إلى 10,368 عقدة. يشير هذا إلى إمكانية توسيع تغطية الشبكة ذات الطبقتين، وبالتالي، اعتمدت شركة FiberMall بشكل متحفظ نسبة 1:2 في تحليل السيناريو. ومع ذلك، تعتقد شركة FiberMall أنه مع استمرار توسيع نطاق مجموعة وحدات معالجة الرسومات وزيادة الطلب على الاتصال البيني عند مستوى 10,000 بطاقة وما فوق، فإن العدد المطلوب من الوحدات الضوئية قد ينمو بشكل أكبر.

ضمن عقدة الحوسبة GB200، يتم توصيل 4 وحدات معالجة رسومات Blackwell بأربع بطاقات شبكة ConnectX-4 بنسبة 8:1
ضمن عقدة الحوسبة GB200، يتم توصيل 4 وحدات معالجة رسومات Blackwell بأربع بطاقات شبكة ConnectX-4 بنسبة 8:1

فيما يتعلق بشبكات NVLink، في حل الخزانة الفردية GB200 NVL72، يتم ربط عقد الحوسبة داخل الخزانة مع محول NVLink باستخدام الكابلات النحاسية، دون الحاجة إلى تحويل الإشارات الكهربائية الضوئية، وهو ما يتوافق مع التوصيل البيني السابق لخزانة GH200 حل. ومع ذلك، في بعض سيناريوهات حوسبة الذكاء الاصطناعي عالية الأداء، يمكن استخدام الجيل الخامس من NVLink لتحقيق اتصال بيني عالي السرعة يصل إلى 8 أنظمة GB200 NVL72 (576 وحدة معالجة رسوميات Blackwell). عند ربط خزانات GB200 NVL72 استنادًا إلى NVLink، يمكن أن يستخدم التوصيل البيني ثنائي في اثنين وصلات LACC النحاسية، ولكن بالنسبة للتوصيل البيني متعدد الخزانات، كما هو مشار إليه في بنية شبكة GH200 السابقة، يلزم وجود طبقة NVS إضافية من الطبقة الثانية. إذا تم اعتماد التوصيل البيني البصري بين L2 وL1 NVS، تتوقع شركة FiberMall زيادة نسبة الوحدات الضوئية إلى وحدات معالجة الرسومات بشكل أكبر.

وفقا لموقع NVIDIA، تم تحسين أداء GB200 بشكل ملحوظ مقارنة بالجيل السابق. بالمقارنة مع مجموعة حوسبة مكونة من 72 وحدة معالجة رسوميات H100، يمكن لـ GB200 تحقيق أداء أعلى بحوالي 30 مرة لاستدلال النماذج الكبيرة، مع انخفاض بمقدار 25 ضعفًا في التكلفة واستهلاك الطاقة. تتوقع شركة FiberMall أن تكون حصة شحن وحدات معالجة الرسومات Blackwell في GB200 أعلى من حصة GH200 في سلسلة Hopper. باختصار، تعتقد شركة FiberMall أن ميزة الأداء لـ GB200 ستؤدي على الأرجح إلى زيادة في حصتها من الشحنات، ولا يزال من المتوقع أن يؤدي سيناريو اتصال NVLink عبر خزانات متعددة في النظام إلى تعزيز نمو نسبة الوحدة الضوئية مقارنة بالوحدة الفردية. حل اتصال الشريحة. من المتوقع أن يؤدي الجمع بين هذين العاملين إلى زيادة الطلب على الوحدات الضوئية عالية السرعة في النظام البيئي للحوسبة من الجيل الجديد.

GB200 بنية شبكة الحوسبة العنقودية
GB200 بنية شبكة الحوسبة العنقودية

عوامل الخطر

  1. قدرة إنتاج الرقائق الضوئية 200G EML أقل من التوقعات. يمكن أن يوفر توفر سعة إنتاج الرقائق الضوئية 200G EML دعمًا للمواد الخام الأساسية للنشر الناضج للوحدات الضوئية 1.6T OSFP-XD. لنفترض أن الجدول الزمني للإنتاج أو السرعة المتزايدة للرقائق الضوئية 200 جيجا EML أقل من التوقعات. وفي هذه الحالة، قد يؤدي ذلك إلى تأخير نشر 1.6T في الصناعة، مما يؤثر على حجم شحن الوحدات الضوئية 1.6T OSFP-XD في عام 2025.
  2. الطلب على صناعة الذكاء الاصطناعي لا يرقى إلى مستوى التوقعات مع استمرار التحول الرقمي والذكي للمجتمع، يتسارع نشر نماذج الذكاء الاصطناعي الكبيرة لتمكين مختلف الصناعات. تعتقد شركة FiberMall أن التطوير المزدهر للذكاء الاصطناعي يقود الزيادة المستدامة في الطلب على طاقة الحوسبة، مما يؤدي بدوره إلى تعزيز الطلب على أجهزة الذكاء الاصطناعي مثل الخوادم والوحدات الضوئية والمحولات. إذا كان نشر نماذج أو تطبيقات الذكاء الاصطناعي الكبيرة أقل من التوقعات، أو تم إعاقة مسار التسويق، فقد يؤثر ذلك سلبًا على كثافة الاستثمار وتصميم المشاركين في صناعة الذكاء الاصطناعي، الذين يمثلهم مقدمو الخدمات السحابية الرائدون، في البنية التحتية ذات الصلة بالذكاء الاصطناعي، مما قد يؤثر على نمو السوق وسرعة تكرار المنتج لمعدات أجهزة الذكاء الاصطناعي الأولية.

اترك تعليق

انتقل إلى الأعلى