رطم مستقبل الذكاء الاصطناعي التوليدي هو الأفضل - Unite.AI
اتصل بنا للحصول على مزيد من المعلومات

قاده التفكير

مستقبل الذكاء الاصطناعي التوليدي هو الحافة

mm

تم النشر

 on

ظهور ChatGPT و الذكاء الاصطناعي التوليدي بشكل عام، تعتبر هذه لحظة فاصلة في تاريخ التكنولوجيا وتشبه فجر الإنترنت والهاتف الذكي. أظهر الذكاء الاصطناعي التوليدي إمكانات لا حدود لها في قدرته على إجراء محادثات ذكية، واجتياز الاختبارات، وإنشاء برامج/أكواد معقدة، وإنشاء صور ومقاطع فيديو لافتة للنظر. وفي حين تقوم وحدات معالجة الرسومات بتشغيل أغلب نماذج الذكاء الاصطناعي في السحابة ــ سواء لأغراض التدريب أو الاستدلال ــ فإن هذا لا يشكل حلاً قابلاً للتطوير على المدى الطويل، وخاصة في مجال الاستدلال، وذلك بسبب عوامل تشمل التكلفة، والطاقة، وزمن الوصول، والخصوصية، والأمن. تتناول هذه المقالة كلًا من هذه العوامل إلى جانب الأمثلة المحفزة لنقل أعباء عمل حوسبة Gen AI إلى الحافة.

تعمل معظم التطبيقات على معالجات عالية الأداء - إما على الأجهزة (مثل الهواتف الذكية وأجهزة الكمبيوتر المكتبية وأجهزة الكمبيوتر المحمولة) أو في مراكز البيانات. ومع توسع حصة التطبيقات التي تستخدم الذكاء الاصطناعي، فإن هذه المعالجات التي تحتوي على وحدات المعالجة المركزية فقط غير كافية. علاوة على ذلك، فإن التوسع السريع في أعباء عمل الذكاء الاصطناعي التوليدي يؤدي إلى زيادة الطلب على الخوادم التي تدعم الذكاء الاصطناعي مع وحدات معالجة الرسوميات باهظة الثمن والمتعطشة للطاقة والتي بدورها تؤدي إلى ارتفاع تكاليف البنية التحتية. يمكن أن تكلف هذه الخوادم التي تدعم الذكاء الاصطناعي ما يزيد عن 7 أضعاف سعر الخادم العادي وتمثل وحدات معالجة الرسومات 80% من هذه التكلفة الإضافية.

بالإضافة إلى ذلك، يستهلك الخادم السحابي ما بين 500 وات إلى 2000 وات، بينما يستهلك الخادم المدعم بالذكاء الاصطناعي ما بين 2000 وات و8000 وات - أي 4 مرات أكثر! لدعم هذه الخوادم، تحتاج مراكز البيانات إلى وحدات تبريد إضافية وتحديثات للبنية التحتية - والتي يمكن أن تكون أعلى من الاستثمار في الحوسبة. تستهلك مراكز البيانات بالفعل 300 تيراواط/ساعة سنويًا، ما يقرب من 1٪ من إجمالي استهلاك الطاقة في العالم إذا استمرت اتجاهات اعتماد الذكاء الاصطناعي، فمن الممكن أن تستخدم مراكز البيانات ما يصل إلى 5% من الطاقة العالمية بحلول عام 2030. بالإضافة إلى ذلك، هناك استثمار غير مسبوق في مراكز بيانات الذكاء الاصطناعي التوليدي. وتشير التقديرات إلى أن مراكز البيانات سوف تستهلك ما يصل إلى 500 مليار دولار للنفقات الرأسمالية بحلول عام 2027، مدعومة بشكل أساسي بمتطلبات البنية التحتية للذكاء الاصطناعي.

سوف يرتفع استهلاك الكهرباء في مراكز البيانات، والذي يبلغ بالفعل 300 تيراواط/ساعة، بشكل كبير مع اعتماد الذكاء الاصطناعي التوليدي.

إن تكلفة حساب الذكاء الاصطناعي بالإضافة إلى استهلاك الطاقة سوف يعيق التبني الشامل للذكاء الاصطناعي التوليدي. يمكن التغلب على تحديات التوسع من خلال نقل حوسبة الذكاء الاصطناعي إلى الحافة واستخدام حلول المعالجة المحسنة لأحمال عمل الذكاء الاصطناعي. ومن خلال هذا النهج، تعود فوائد أخرى أيضًا على العميل، بما في ذلك زمن الوصول والخصوصية والموثوقية بالإضافة إلى زيادة القدرة.

حساب يتبع البيانات إلى الحافة

منذ عقد مضى، عندما ظهر الذكاء الاصطناعي من العالم الأكاديمي، تم التدريب والاستدلال على نماذج الذكاء الاصطناعي في السحابة/مركز البيانات. مع إنشاء الكثير من البيانات واستهلاكها على الحافة - وخاصة الفيديو - كان من المنطقي نقل استنتاج البيانات إلى الحافة وبالتالي تحسين التكلفة الإجمالية للملكية (TCO) للمؤسسات بسبب انخفاض تكاليف الشبكة والحوسبة. في حين أن تكاليف استدلال الذكاء الاصطناعي على السحابة تتكرر، فإن تكلفة الاستدلال على الحافة هي نفقات الأجهزة لمرة واحدة. بشكل أساسي، يؤدي تعزيز النظام باستخدام معالج Edge AI إلى تقليل تكاليف التشغيل الإجمالية. مثل ترحيل أعباء عمل الذكاء الاصطناعي التقليدية إلى Edge (على سبيل المثال، الأجهزة أو الأجهزة)، ستتبع أعباء عمل الذكاء الاصطناعي التوليدي نفس الشيء. وهذا سيجلب وفورات كبيرة للشركات والمستهلكين.

إن الانتقال إلى الحافة إلى جانب مسرع الذكاء الاصطناعي الفعال لأداء وظائف الاستدلال يوفر فوائد أخرى أيضًا. وأهمها الكمون. على سبيل المثال، في تطبيقات الألعاب، يمكن التحكم في الشخصيات غير المشغلة (NPCs) وزيادتها باستخدام الذكاء الاصطناعي التوليدي. باستخدام نماذج LLM التي تعمل على مسرعات الذكاء الاصطناعي المتطورة في وحدة تحكم الألعاب أو الكمبيوتر الشخصي، يمكن للاعبين إعطاء هذه الشخصيات أهدافًا محددة، حتى يتمكنوا من المشاركة بشكل هادف في القصة. سيسمح زمن الوصول المنخفض من استدلال الحافة المحلية لحديث وحركات NPC بالاستجابة لأوامر اللاعبين وإجراءاتهم في الوقت الفعلي. سيوفر هذا تجربة ألعاب غامرة للغاية بطريقة فعالة من حيث التكلفة وكفاءة في استخدام الطاقة.

في تطبيقات مثل الرعاية الصحية، تعتبر الخصوصية والموثوقية في غاية الأهمية (على سبيل المثال، تقييم المريض، توصيات الأدوية). يجب أن تكون البيانات ونماذج الذكاء الاصطناعي العامة المرتبطة بها موجودة في مكان العمل لحماية بيانات المرضى (الخصوصية) وأي انقطاع في الشبكة من شأنه أن يمنع الوصول إلى نماذج الذكاء الاصطناعي في السحابة يمكن أن يكون كارثيًا. يمكن لجهاز Edge AI الذي يشغل غرض نموذج Gen AI المصمم لكل عميل مؤسسي - في هذه الحالة مقدم الرعاية الصحية - أن يحل مشكلات الخصوصية والموثوقية بسلاسة مع توفير زمن وصول وتكلفة أقل.

سيضمن الذكاء الاصطناعي التوليدي على الأجهزة المتطورة زمن وصول منخفض في الألعاب ويحافظ على بيانات المرضى ويحسن موثوقية الرعاية الصحية.

يمكن أن تكون العديد من نماذج Gen AI التي تعمل على السحابة قريبة من تريليون معلمة - يمكن لهذه النماذج أن تعالج بشكل فعال استعلامات الأغراض العامة. ومع ذلك، تتطلب التطبيقات الخاصة بالمؤسسة أن تقدم النماذج نتائج ذات صلة بحالة الاستخدام. لنأخذ على سبيل المثال المساعد المعتمد على Gen AI المصمم لتلقي الطلبات في مطعم للوجبات السريعة - لكي يتمتع هذا النظام بتفاعل سلس مع العملاء، يجب تدريب نموذج Gen AI الأساسي على عناصر قائمة المطعم، وكذلك معرفة المواد المسببة للحساسية والمكونات . يمكن تحسين حجم النموذج باستخدام مجموعة شاملة من نموذج اللغة الكبير (LLM) لتدريب معلمة LLM صغيرة نسبيًا تتراوح من 10 إلى 30 مليار ثم استخدام الضبط الدقيق الإضافي مع البيانات المحددة للعميل. يمكن لمثل هذا النموذج أن يحقق نتائج بدقة وقدرة أكبر. ونظرًا لصغر حجم النموذج، يمكن نشره بشكل فعال على مسرع الذكاء الاصطناعي الموجود على الحافة.

الجنرال AI سوف يفوز على الحافة

ستكون هناك دائمًا حاجة إلى تشغيل Gen AI في السحابة، خاصة للتطبيقات ذات الأغراض العامة مثل ChatGPT وClaude. ولكن عندما يتعلق الأمر بالتطبيقات الخاصة بالمؤسسات، مثل التعبئة التوليدية لبرنامج Adobe Photoshop أو مساعد Github، فإن الذكاء الاصطناعي التوليدي في Edge ليس المستقبل فحسب، بل هو الحاضر أيضًا. تعتبر مسرعات الذكاء الاصطناعي المصممة خصيصًا لهذا الغرض هي المفتاح لجعل ذلك ممكنًا.

بصفته أحد المخضرمين في وادي السيليكون، والرئيس التنفيذي لشركة شركة كينارايتمتع رافي أنافاجالا بأكثر من 20 عامًا من الخبرة التي تشمل تطوير الأعمال والتسويق والهندسة وبناء منتجات تكنولوجية رائدة و
جلبهم إلى السوق. في منصبه الحالي كرئيس تنفيذي لشركة Deep Vision، يعمل رافي
مجلس إدارتها وجمعت 50 مليون دولار لنقل معالج الشركة Ara-1 من مرحلة ما قبل السيليكون إلى
الإنتاج على نطاق واسع وزيادة حجم معالج الجيل الثاني، Ara-2. قبل الانضمام
Deep Vision، شغل رافي مناصب قيادية تنفيذية في Intel وSanDisk حيث لعب أدوارًا رئيسية
في دفع نمو الإيرادات، وتطوير الشراكات الإستراتيجية، وتطوير خرائط طريق المنتجات التي
قادت الصناعة بميزات وقدرات متطورة.