اتصل بنا للحصول على مزيد من المعلومات

سر الذكاء الاصطناعي الأسرع لا يكمن في زيادة وحدات معالجة الرسومات، بل في الشبكات الأكثر ذكاءً

قاده التفكير

سر الذكاء الاصطناعي الأسرع لا يكمن في زيادة وحدات معالجة الرسومات، بل في الشبكات الأكثر ذكاءً

mm

يُعيد الذكاء الاصطناعي تعريف الإمكانات المتاحة في مختلف القطاعات، بما في ذلك الرعاية الصحية، والتمويل، والتصنيع، وتجارة التجزئة. ورغم إمكاناته الواعدة، إلا أنه يفرض أيضًا متطلبات هائلة على البنية التحتية.

تستثمر المؤسسات حول العالم في وحدات معالجة الرسومات (GPUs) على نطاق غير مسبوق لتسريع تدريب الذكاء الاصطناعي واستنتاجاته. وبحلول عام 2028، تتوقع شركة جارتنر مشروع ناجح سيتجاوز إنفاق تكنولوجيا المعلومات المُولِّد للذكاء الاصطناعي تريليون دولار أمريكي. هايبريون للأبحاث التوقعات من المتوقع أن يتجاوز إجمالي إنفاق سوق الحوسبة عالية الأداء 100 مليار دولار أمريكي في الفترة نفسها. ومع ذلك، ورغم الاستثمار في أحدث المسرعات، لا يزال العديد من مديري تكنولوجيا المعلومات يشهدون تباطؤًا في وحدات معالجة الرسومات، حيث يبلغ معدل الاستخدام 35% أو أقل. وهذا لا يؤدي فقط إلى ضعف الأداء، بل أيضًا إلى هدر الطاقة وارتفاع التكاليف.

في حين أن العديد من مشاريع الذكاء الاصطناعي تتوقف، فإن ذلك لا يرجع إلى افتقارها إلى وحدات معالجة الرسوميات أو قوة الحوسبة، ولكن لأن الشبكة لا تستطيع مواكبة ذلك، مما يتطلب نهجًا جديدًا لتصميم الذكاء الاصطناعي على نطاق واسع.

التكلفة الخفية لاختناقات الشبكة

عندما لا تتمكن الشبكات من تغذية البيانات بسرعة كافية لإبقاء وحدات معالجة الرسومات مشغولة باستمرار، تواجه المؤسسات العديد من التأثيرات الحرجة:

  • وحدات معالجة الرسومات ووحدات المعالجة المركزية غير المستغلة بشكل كافٍ بسبب عمليات نقل البيانات المحدودة: صُممت وحدات معالجة الرسومات (GPUs) للحوسبة المتوازية الضخمة، لكنها لا تستطيع معالجة البيانات إلا بسرعة وصولها. إذا لم تتمكن بنية الشبكة من مواكبة ذلك، تبقى وحدات معالجة الرسومات (GPUs) خاملة في انتظار البيانات بدلاً من تحليلها. كما قد تتعطل وحدات المعالجة المركزية (CPUs) لأنها تُنسق المهام وتنقل البيانات عبر خط الأنابيب، مما يؤدي إلى انخفاض استخدامها على الرغم من توفر أجهزة باهظة الثمن.
  • أداء استدلال غير متسق من شبكة غير فعالة: يؤدي ضعف كفاءة الشبكة إلى تدفقات بيانات غير متوازنة، مما يؤدي إلى تذبذب وحدات معالجة الرسومات بين السرعة القصوى والخمول. وهذا يُنتج أداءً استدلاليًا غير متوقع، مما قد يُعيق تطبيقات الذكاء الاصطناعي في الإنتاج.
  • دورات تدريبية أطول، مما يؤدي إلى تأخير وقت طرح المنتج في السوق: يتطلب تدريب نماذج الذكاء الاصطناعي نقل مجموعات بيانات ضخمة عبر الخوادم ووحدات معالجة الرسومات ووحدات التخزين. تُعيق اختناقات الشبكة هذه العملية، ما يُقلل من وقت تدريب وحدات معالجة الرسومات ويزيد من وقت الانتظار. وهذا يُبطئ بشكل مباشر جداول تطوير المنتجات ونشرها.
  • ارتفاع تكاليف الطاقة والتشغيل: حتى في حالة الخمول، تستهلك وحدات معالجة الرسومات والبنية التحتية المحيطة بها قدرًا كبيرًا من الطاقة. في حال عدم استخدام وحدات معالجة الرسومات بشكل كافٍ بسبب ضعف كفاءة الشبكة، تدفع المؤسسات ثمن استهلاك طاقة مرتفع دون الحصول على أداء متناسب. وترتفع تكاليف التشغيل لأن المرافق يجب أن تدعم ذروة الطاقة وأحمال التبريد، حتى مع تقييد إنتاجية الحوسبة بشكل مصطنع.

يمكن للشركات أن تستمر في ضخ الأموال في المزيد وحدات معالجة الرسوماتولكن بدون التحسينات الصحيحة للشبكة، فإنها لن تؤدي إلا إلى تفاقم هذه الاختناقات وانعدام الكفاءة.

الشبكات كمُسرِّع: تحول نموذجي

يتطلب الحل إعادة النظر في بنية الشبكة كليًا. إن طرح نموذج يستخدم الشبكة كمسرّع يُغيّر التفكير التقليدي حول أداء الحوسبة عالية الأداء والذكاء الاصطناعي، ويفتح آفاقًا جديدة.

بدلاً من التركيز بشكل أساسي على زيادة قدرات الحوسبة عبر وحدات معالجة الرسومات (GPU) ووحدات المعالجة المركزية (CPU)، يتعامل نهج "الشبكة كمسرّع" مع بنية الربط الشبكي كمضاعف للأداء. ونتيجةً لذلك، يمكن للشبكة دعم الحوسبة عالية الكثافة بشكل أفضل وتسريع عائد الاستثمار من خلال إزالة الاختناقات، والتوسع لتلبية متطلبات الحوسبة، وتحديد حجم استثمارات الأجهزة بشكل صحيح. ومن خلال تمكين حوسبة أكبر دون تباطؤ، يمكن للمؤسسات تشغيل أحمال عمل أكبر في مساحة أقل، والحصول على نتائج أسرع، وتجنب الإنفاق الزائد على الأجهزة الإضافية.

كيف يعمل نموذج "الشبكة كمُسرِّع"

إذًا، كيف يعمل هذا النموذج لتمكين المؤسسات من تحويل شبكاتها من ناقل سلبي للبيانات إلى مُمَكِّن فعّال للحوسبة، والبدء في جني فوائده؟ يوفر هذا النموذج أربع قدرات رئيسية تفتقر إليها الشبكات التقليدية:

  • التسليم مضمون على مستوى الأجهزة: تُثقل الشبكات التقليدية كاهل وحدات المعالجة المركزية (CPU) ووحدات معالجة الرسومات (GPU) بتكاليف تتبع الحزم وإعادة إرسالها وإعادة ترتيبها. هذا يستهلك دورات حوسبة كان من الممكن تخصيصها للتدريب أو الاستدلال. مع بنية شبكية تضمن التسليم على مستوى الأجهزة، تُنقل هذه المهام بعيدًا عن عُقد الحوسبة، مما يُقلل من تكاليف وحدات المعالجة المركزية ووحدات معالجة الرسومات، ويضمن أداءً ثابتًا وقابلًا للتنبؤ، وقابلية للتوسع تُبسط البرمجة وتنسيق المجموعات.
  • التوجيه الديناميكي الذكي: يعتمد التوجيه التقليدي على مسارات ثابتة أو دون المستوى الأمثل، مما قد يؤدي إلى قلة استخدام أجزاء من الشبكة أو خلق اختناقات مرورية تتدفق فيها كميات هائلة من البيانات في آن واحد. أما التوجيه الذكي، فيستغل جميع المسارات المتاحة ديناميكيًا لتحسين تدفق البيانات. فهو يتيح إنتاجية أعلى بفضل مسارات نشطة متعددة تُوازن حركة المرور، ويُقلل زمن الوصول من خلال اختيار المسار الأمثل، ويُحسّن المرونة حيث تُعيد حركة مرور الشبكة توجيهها تلقائيًا لتجنب أعطال الروابط أو العقد. هذا يُقلل من أوقات الخمول ويُبقي وحدات معالجة الرسومات مُزودة بالكامل بالبيانات.
  • إعادة المحاولة التلقائية على مستوى الرابط: عند فقدان الحزم أو تلفها، تعتمد الشبكات القياسية على طبقة الحوسبة لاكتشافها وإعادة إرسالها، مما يُسبب تأخيرًا كبيرًا ويقطع تدفق الحوسبة. تُعالج بنية مُدمجة مزودة بإمكانيات إعادة المحاولة التلقائية على مستوى الرابط عمليات إعادة الإرسال داخل الشبكة نفسها. تتيح هذه البنية موثوقية شبه شفافة، حيث يصبح فقدان الحزم غير مرئي لعقد الحوسبة، مع تقليل تأثير تأخير الاستجابة، حيث تتم عمليات إعادة المحاولة محليًا على الرابط، وليس عبر حزمة الشبكة بأكملها. كما تُلغي الحاجة إلى معالجة معقدة للأخطاء على مستوى التطبيق. تضمن إمكانيات إعادة المحاولة التلقائية حوسبة موزعة دون انقطاع وبكفاءة، وهو أمر بالغ الأهمية عند التوسع عبر آلاف وحدات معالجة الرسومات.
  • الحوسبة داخل الشبكة: بينما تنقل أنسجة الشبكات التقليدية البيانات بشكل أساسي، تُمكّن الحوسبة داخل الشبكة الشبكة من أن تصبح معالجًا مساعدًا من خلال إجراء عمليات معينة مباشرةً داخلها. يُعدّ NVIDIA SHARP مثالًا رئيسيًا على ذلك، إذ يسمح بتخفيض البيانات على مفاتيح الشبكة نفسها. هذا يسمح بتسريع العمليات الموزعة، ويُقلّل من زمن الوصول بفضل تجميع البيانات أثناء مرورها عبر الشبكة، ويزيد من الكفاءة مع تحرر عُقد الحوسبة من مهام التجميع، مما يتيح دورات أكثر للتدريب والمحاكاة.

إجمالاً، تُعدّ هذه القدرات أساسًا لتوسيع نطاق بيئات الذكاء الاصطناعي والحوسبة عالية الأداء من الجيل التالي. يُحقق النهج المُركّز على الشبكة عوائد ملموسة، تشمل استخدامًا أعلى لوحدات معالجة الرسومات (GPU) يُجنّب نقص البيانات، ووقتًا أسرع للوصول إلى المعلومات، ما يُقلّل دورات التدريب ويُثبّت أداء الاستدلال، ويُحسّن كفاءة الموارد، ويُخفّض التكلفة الإجمالية للملكية.

اكتشف قوة الشبكة الحقيقية

الذكاء الاصطناعي على نطاق واسع ليس مجرد مشكلة حوسبة، بل هو تحدٍّ هندسي على مستوى النظام، تُشكّل الشبكات جوهره. إن التعامل مع الشبكة كمسرّع يُحوّلها إلى مُضاعِف قوة للحوسبة، مما يسمح لمراكز بيانات الحوسبة عالية الأداء والذكاء الاصطناعي بالتوسع بكثافة دون التضحية بالأداء. كما يُحقق عائد استثمار قابل للقياس بشكل أسرع من خلال استخلاص أقصى قيمة من البنية التحتية الحالية قبل الاستثمار في المزيد من السيليكون.

من خلال إزالة الاختناقات، وتعزيز الاستخدام، وتقديم أداء متوقع، تُمكّن الشبكات الذكية فرق الذكاء الاصطناعي من زيادة إنتاجيتها، وتحسين عائد الاستثمار على البنية التحتية لوحدات معالجة الرسومات، وتسريع وتيرة الحصول على المعلومات، والابتكار، والريادة في السوق. كما تُمكّن المؤسسات من اكتشاف إمكانات شبكاتها الحقيقية، وتسخير قوة الذكاء الاصطناعي بطرق جديدة.

نيشانت لودها هو المدير الأول لشبكات الذكاء الاصطناعي في شبكات كورنيليسقبل انضمامه إلى كورنيليس، شغل نيشانت مناصب إدارية في شركتي إنتل ومارفيل. يتمتع بخبرة تزيد عن 25 عامًا في شبكات مراكز البيانات، والتخزين، وتقنيات الحوسبة، في أدوار تشمل تسويق المنتجات، والحلول، والتسويق التقني، وهندسة الشبكات. ويقيم في وادي السيليكون.