Connect with us

السباق إلى الحافة: لماذا يتركن الأجهزة الخاصة بالذكاء الاصطناعي السحابة وراءها

الذكاء الاصطناعي

السباق إلى الحافة: لماذا يتركن الأجهزة الخاصة بالذكاء الاصطناعي السحابة وراءها

mm
The Race to the Edge: Why AI Hardware Is Leaving the Cloud Behind

يتطلب سيارة ذاتية القيادة تتحرك عبر شوارع مزدحمة الاستجابة في غضون أجزاء من الثانية. حتى تأخير 200 ملي ثانية أثناء إرسال البيانات إلى خادم السحابة يمكن أن يضعف السلامة. وبالمثل، في المصانع، يجب على المستشعرات الكشف عن الشذوذ على الفور لمنع الضرر أو الإصابة. تظهر هذه المواقف أن الذكاء الاصطناعي المعتمد على السحابة فقط لا يستطيع تلبية متطلبات التطبيقات في الوقت الفعلي.

لعب حوسبة السحابة دورًا هامًا في نمو الذكاء الاصطناعي. وقد ermögنت تدريب نماذج كبيرة بشكل فعال ونشرها في جميع أنحاء العالم. سمح هذا النهج المركزي للشركات بتعزيز الذكاء الاصطناعي بسرعة وجعله متاحًا للعديد من الصناعات. ومع ذلك، فإن الاعتماد على خوادم السحابة يخلق أيضًا قيودًا كبيرة. لأن جميع البيانات يجب أن تسافر إلى خادم بعيد، تصبح التأخير قضية حرجة للتطبيقات التي تتطلب استجابات فورية. بالإضافة إلى ذلك، ت представляет استهلاك الطاقة العالي ومخاوف الخصوصية وتكاليف التشغيل تحديات إضافية.

تقدم أجهزة حافة الذكاء الاصطناعي حلًا لهذه المشكلات. يمكن للأجهزة مثل NVIDIA Blackwell GPUs و Apple A18 Bionic و Google TPU v5p و Coral معالجة البيانات محليًا، بالقرب من مكان توليدها. من خلال الحوسبة على الحافة، تقلل هذه الأنظمة من التأخير وتحسن الخصوصية وتقلل من استهلاك الطاقة وتجعل تطبيقات الذكاء الاصطناعي في الوقت الفعلي ممكنة. وبالتالي، يتحرك نظام الذكاء الاصطناعي نحو نموذج موزع، يأتي في المقام الأول من الحافة، حيث تكمل أجهزة الحافة البنية التحتية للسحابة لتلبية متطلبات الأداء والكفاءة الحديثة.

سوق أجهزة الذكاء الاصطناعي والتكنولوجيات الرئيسية

يتطور سوق أجهزة الذكاء الاصطناعي بسرعة. وفقًا لاستشارات السوق العالمية (GMI)، في عام 2024، تم تقدير قيمته بحوالي 59.3 مليار دولار أمريكي، ويتوقع المحللون أنه قد يصل إلى ما يقرب من 296 مليار دولار أمريكي بحلول عام 2034، بمعدل نمو سنوي يبلغ حوالي 18٪. تشير تقارير أخرى إلى قيمة أعلى في عام 2024 تبلغ 86.8 مليار دولار أمريكي، مع توقعات تتجاوز 690 مليار دولار أمريكي بحلول عام 2033. على الرغم من الاختلافات في التقديرات، جميع المصادر توافق على أن الطلب على الرقائق المُختصة بالذكاء الاصطناعي يزيد في كل من بيئات السحابة والحافة.

تخدم أنواع مختلفة من المعالجات أدوارًا محددة في تطبيقات الذكاء الاصطناعي. لا تزال وحدات المعالجة المركزية (CPUs) ووحدات معالجة الرسومات (GPUs) ضرورية، مع بقاء وحدات معالجة الرسومات مهيمنة على تدريب النماذج على نطاق كبير. وحدات معالجة العصبية (NPUs)، مثل محرك Neural من Apple ومحرك الذكاء الاصطناعي من Qualcomm، مصممة للاستدلال الكفء على الجهاز. وحدات معالجة التنسور (TPUs)، التي طورتها Google، مُحسنة للعمليات التنسورية وتستخدم في كل من التوزيعات السحابية والحافة. توفر الدارات المتخصصة قوة معالجة فائقة منخفضة الطاقة وعالية الحجم لاستدلال المستهلكين، بينما توفر الدارات القابلة للبرمجة الميدانية مرونة لتحميلات العمل المخصصة وتصميم النماذج الأولية. معًا، تشكل هذه المعالجات نظامًا بيئيًا متنوعًا يلبي احتياجات حمولات الذكاء الاصطناعي الحديثة.

يعد استهلاك الطاقة قضية متزايدة في قطاع الذكاء الاصطناعي. تقارير الوكالة الدولية للطاقة (IEA، 2025) أن مراكز البيانات استهلكت حوالي 415 تيراوات ساعة من الكهرباء في عام 2024، مما يمثل حوالي 1.5٪ من الطلب العالمي. يمكن أن يتضاعف هذا الرقم أكثر من مرة ليصل إلى 945 تيراوات ساعة بحلول عام 2030، مع كون حمولات الذكاء الاصطناعي مساهماً رئيسياً. من خلال معالجة البيانات محليًا، يمكن لأجهزة الحافة تقليل العبء الطاقي للنقل المستمر إلى الخوادم المركزية، مما يجعل عمليات الذكاء الاصطناعي أكثر كفاءة واستدامة.

أصبحت الاستدامة قضية رئيسية في صناعة أجهزة الذكاء الاصطناعي. تستهلك مراكز البيانات التي تعمل بالذكاء الاصطناعي الآن ما يقرب من 4٪ من الكهرباء في العالم، مقارنة بـ 2.5٪ فقط من ثلاث سنوات سابقة. أدى هذا الطلب المتزايد على الطاقة إلى حث الشركات على تبني ممارسات الذكاء الاصطناعي الخضراء. يستثمر الكثيرون في رقائق منخفضة الطاقة ومراكز بيانات صغيرة تعمل بالطاقة المتجددة وأنظمة قائمة على الذكاء الاصطناعي للتهوية ومراقبة الطاقة.

يجعل الطلب المتزايد على الحوسبة الكفئة والمستدامة الآن معالجة الذكاء الاصطناعي أقرب إلى حيث يتم إنشاء البيانات واستخدامها.

من السيادة السحابية إلى ظهور الحافة

لعب الحوسبة السحابية دورًا هامًا في نمو الذكاء الاصطناعي المبكر. قدمت منصات مثل AWS و Azure و Google Cloud قوة حوسبة كبيرة جعلت تطوير الذكاء الاصطناعي وتنفيذه ممكنين على نطاق عالمي. جعل هذا النهج المركزي من الممكن للشركات تسريع الذكاء الاصطناعي وجعله متاحًا للعديد من الصناعات، ودعم التقدم السريع في البحث والتطبيقات.

然而، أصبح الاعتماد الكامل على الأنظمة السحابية يصبح صعبًا للمهام التي تتطلب نتائج فورية. يخلق المسافة بين مصادر البيانات والخوادم السحابية تأخيرًا لا يمكن تجنبه، وهو حرج في مجالات مثل الأنظمة المستقلة وأجهزة الرعاية الصحية والمراقبة الصناعية. يزيد نقل كميات كبيرة من البيانات أيضًا من التكلفة بسبب رسوم النطاق الترددي والرسوم المتعلقة بالخروج.

الخصوصية والامتثال هما مخاوف إضافية. تتطلب القواعد مثل GDPR و HIPAA معالجة البيانات محليًا، مما يحد من استخدام الأنظمة المركزية. استهلاك الطاقة هو قضية أخرى كبيرة، حيث تستهلك مراكز البيانات الكبيرة كميات كبيرة من الكهرباء وتضيف ضغطًا على الموارد البيئية.

نتيجة لذلك، تقوم المزيد من المنظمات بمعالجة البيانات أقرب إلى حيث يتم إنشاؤها. تعكس هذه التحولة تحركًا واضحًا نحو نموذج حوسبة الحافة، حيث تتعامل أجهزة الحافة ومحطات البيانات الصغيرة المحلية مع حمولات العمل التي اعتمدت في السابق بالكامل على السحابة.

لماذا تتحرك أجهزة الذكاء الاصطناعي إلى الحافة

تتحرك أجهزة الذكاء الاصطناعي نحو الحافة لأن التطبيقات الحديثة تعتمد بشكل متزايد على اتخاذ القرارات الفورية الموثوقة. غالبًا ما يجد النظام السحابي التقليدية صعوبة في تلبية هذه المطالب، حيث يتطلب كل互одействة إرسال البيانات إلى خادم بعيد وانتظار الاستجابة. في المقابل، تعمل أجهزة الحافة على معالجة المعلومات محليًا، مما يسمح بالعمل الفوري. هذا الفرق في السرعة حاسم في الأنظمة الواقعية حيث يمكن أن تؤدي التأخيرات إلى عواقب خطيرة. على سبيل المثال، تعتمد المركبات المستقلة من Tesla و Waymo على رقائق الجهاز لاتخاذ قرارات القيادة على مستوى الأجزاء الألف من الثانية. وبالمثل، تقوم أنظمة مراقبة الرعاية الصحية بالكشف عن مشاكل المرضى في الوقت الفعلي، وتتطلب نظارات AR أو VR تأخيرًا منخفضًا جدًا لتوفير تجارب سلسة ومتجاوبة.

علاوة على ذلك، تحسن معالجة البيانات المحلية من الكفاءة التكلفة والاستدامة. يستهلك نقل كميات كبيرة من البيانات إلى السحابة نطاقًا تردديًا كبيرًا وينتج عنه رسوم خروج عالية. من خلال أداء الاستدلال مباشرة على الجهاز، تقلل المنظمات من حركة البيانات وتخفض التكاليف وتقلل من استهلاك الطاقة. وبالتالي، لا تحسن حافة الذكاء الاصطناعي الأداء فحسب، بل تدعم أيضًا الأهداف البيئية من خلال الحوسبة الأكثر كفاءة.

تزيد مخاوف الخصوصية والأمان من قوة الحجة لصالح حوسبة الحافة. يجب على العديد من الصناعات، مثل الرعاية الصحية والدفاع والمالية، التعامل مع بيانات حساسة يجب أن تبقى تحت السيطرة المحلية. تساعد معالجة المعلومات على الموقع على منع الوصول غير المصرح به وضمان الامتثال للوائح الحماية للبيانات مثل GDPR و HIPAA. بالإضافة إلى ذلك، تحسن أنظمة الحافة المتانة. يمكنها الاستمرار في العمل حتى مع اتصال محدود أو غير مستقر، وهو أمر حاسم للمواقع النائية والعمليات الحيوية.

جعلت التقنيات المتخصصة هذا التحول أكثر واقعية. تتيح وحدات Jetson من NVIDIA الحوسبة القائمة على وحدات معالجة الرسومات لأجهزة الروبوتات وأنظمة إنترنت الأشياء، بينما تستخدم أجهزة Coral من Google وحدات معالجة التنسور المدمجة لأداء الاستدلال المحلي الكفء. وبالمثل، تعمل محرك Neural من Apple على تشغيل الذكاء الاصطناعي على جهاز iPhone والمنتجات القابلة للارتداء.

تقنيات أخرى، مثل الدارات المتخصصة والدارات القابلة للبرمجة الميدانية، توفر حلولًا كفئة ومتخصصة لتحميلات العمل الصناعية. بالإضافة إلى ذلك، تقوم مشغلو الاتصالات بتوزيع محطات البيانات الصغيرة بالقرب من أبراج 5G، وتثبت العديد من المصانع وسلاسل التجزئة الخوادم المحلية. هذه التركيبات تقلل من التأخير وتسمح بمعالجة البيانات أسرع دون الاعتماد بالكامل على البنية التحتية المركزية.

يتوسع هذا التقدم إلى كل من الأجهزة الاستهلاكية وشركات المؤسسات. تعمل الهواتف الذكية والمنتجات القابلة للارتداء والأجهزة المنزلية على أداء مهام الذكاء الاصطناعي المعقدة داخليًا، بينما تستخدم أنظمة إنترنت الأشياء الصناعية الذكاء الاصطناعي المدمج لصيانة التنبؤية والتحكم الآلي. وبالتالي، يتحرك الذكاء أقرب إلى حيث يتم إنشاء البيانات، مما يخلق أنظمة أسرع وأكثر ذكاء وذاتية.

ومع ذلك، لا ي置ّ هذا التغيير السحابة في مكانها. بدلاً من ذلك، تعمل السحابة والحافة معًا في نموذج هجين متوازن. لا تزال السحابة هي الأفضل لتدريب النماذج على نطاق كبير والتحليلات على المدى الطويل والتخزين، بينما تعالج الحافة الاستدلال في الوقت الفعلي وعمليات الحساسية للخصوصية.

تطبيقات صناعية لأجهزة حافة الذكاء الاصطناعي

في المركبات المستقلة، يمكن لرقائق الذكاء الاصطناعي على الجهاز تحليل المعلومات المستشعرة في غضون أجزاء من الثانية، مما يسمح بالقرارات الفورية التي هي حاسمة للسلامة. هذا يعالج مشاكل التأخير في الأنظمة المعتمدة على السحابة فقط، حيث يمكن أن يؤثر حتى التأخيرات الصغيرة على الأداء.

في مجال الرعاية الصحية وتكنولوجيا الارتداء، تمكن حافة الذكاء الاصطناعي من مراقبة المرضى في الوقت الفعلي. يمكن للأجهزة الكشف عن الشذوذ على الفور وإصدار تنبيهات وتخزين البيانات الحساسة محليًا. هذا يضمن استجابات سريعة ويحمي الخصوصية، وهو أمر ضروري للتطبيقات الطبية.

تستفيد أيضًا الصناعة والعمليات الصناعية من حافة الذكاء الاصطناعي. تعتمد الصيانة التنبؤية والتحكم الآلي على الذكاء المحلي لتحديد مشاكل المعدات قبل أن تتفاقم. سجلت المصانع التي تستخدم معالجة الحافة انخفاضًا كبيرًا في وقت التوقف، مما يحسن السلامة والكفاءة التشغيلية.

تستفيد تطبيقات التجزئة والمدن الذكية أيضًا من حافة الذكاء الاصطناعي. تستخدم المتاجر الخالية من الدفع معالجة محلية لتعرف المنتجات الفوري ومعالجة المعاملات. تعتمد الأنظمة الحضرية على مراقبة حافة الذكاء الاصطناعي وإدارة المرور لاتخاذ قرارات سريعة، مما يقلل من التأخير ويقلل من الحاجة إلى إرسال كميات كبيرة من البيانات إلى الخوادم المركزية.

توفر حافة الذكاء الاصطناعي مزايا عديدة بخلاف السرعة. تقلل المعالجة المحلية من استهلاك الطاقة وتقلل من التكاليف التشغيلية وتحسن المتانة في المناطق ذات الاتصال المحدود. كما تعزز الأمان والامتثال للوائح من خلال إبقاء البيانات الحساسة على الموقع. معًا، تظهر هذه الفوائد أن أجهزة حافة الذكاء الاصطناعي حاسمة للتطبيقات في الوقت الفعلي والحساسة للخصوصية وأداء عالية.

تحديات أجهزة حافة الذكاء الاصطناعي

تواجه أجهزة حافة الذكاء الاصطناعي عدة تحديات يمكن أن تحد من انتشارها وفعاليتها:

التكلفة والتناسب

رقائق الذكاء الاصطناعي المخصصة باهظة الثمن، ويمكن أن يكون توسيع النشر عبر أجهزة أو مواقع متعددة معقدًا ومكلفًا.

تجزئة النظام البيئي

تنوع الرقائق والإطارات والأدوات البرمجية يمكن أن يخلق مشاكل في التوافق، مما يجعل التكامل عبر الأجهزة والمنصات صعبًا.

أدوات المطور

دعم التطبيقات عبر المنصات المحدود يبطئ التطوير. تتنافس الإطارات مثل ONNX و TensorFlow Lite و Core ML، مما يخلق تجزئة للمطورين.

تبادلات الأداء والطاقة

تحقيق الأداء العالي مع الحفاظ على استهلاك طاقة منخفض هو تحدي، خاصة للأجهزة في البيئات النائية أو التي تعمل بالبطارية.

مخاطر الأمان

يمكن أن تكون أجهزة الحافة الموزعة أكثر عرضة للهجمات من الأنظمة المركزية، مما يتطلب إجراءات أمان قوية.

التحديث والصيانة

إدارة وتحديث الأجهزة في المواقع الصناعية أو النائية صعب، مما يضيف تعقيدًا تشغيليًا.

الخلاصة

تغير أجهزة حافة الذكاء الاصطناعي الطريقة التي تمت معالجتها ومعالجتها في الصناعات. من خلال نقل الذكاء أقرب إلى حيث يتم إنشاء البيانات، تمكن أجهزة الحافة من اتخاذ قرارات أسرع، وتحسين الخصوصية، وتقليل استهلاك الطاقة، وزيادة متانة النظام.

في الوقت نفسه، يجب إدارة التحديات مثل التكلفة وتجزئة النظام البيئي وتبادلات الأداء والطاقة والأمان والتناسب بعناية. على الرغم من هذه العوائق، فإن الجمع بين الأجهزة المخصصة والمعالجة المحلية والنموذج الهجين السحابي والحافة يخلق نظامًا بيئيًا أكثر كفاءة واستجابة ومستدامًا. مع تقدم التكنولوجيا، ستلعب حافة الذكاء الاصطناعي دورًا متزايدًا في تلبية متطلبات التطبيقات في الوقت الفعلي وأداء عالية والحساسة للخصوصية.

الدكتور أسعد عباس، أستاذ مساعد متفرغ في جامعة كومساطس إسلام آباد، باكستان، حصل على دكتوراه من جامعة نورث داكوتا الحكومية، الولايات المتحدة الأمريكية. يركز بحثه على التكنولوجيا المتقدمة، بما في ذلك الحوسبة السحابية، وحوسبة الضباب، وحوسبة الحافة، وتحليل البيانات الكبيرة، والذكاء الاصطناعي. قدم الدكتور عباس مساهمات كبيرة من خلال المنشورات في المجلات العلمية والمؤتمرات ذات السمعة الطيبة. وهو أيضًا مؤسس MyFastingBuddy.