قادة الفكر
إعطاء الأولوية للثقة في الذكاء الاصطناعي

يستمر الاعتماد المجتمعي على تطبيقات الذكاء الاصطناعي (AI) وتعلم الآلة (ML) في النمو، مما يُعيد تعريف كيفية استهلاك المعلومات. من المحادثات التي يتم تشغيلها بواسطة الذكاء الاصطناعي إلى التوليفات المعلوماتية التي يتم إنتاجها من نماذج اللغة الكبيرة (LLMs)، فإن المجتمع لديه وصول إلى المزيد من المعلومات والرؤى العميقة أكثر من أي وقت مضى. ومع ذلك، مع سباق الشركات التكنولوجية لتنفيذ الذكاء الاصطناعي عبر سلسلة قيمها، تطرح سؤالًا حاسمًا. هل يمكننا حقًا الثقة في مخرجات حلول الذكاء الاصطناعي؟
هل يمكننا حقًا الثقة في مخرجات الذكاء الاصطناعي بدون تقدير عدم اليقين
لمدخل معين، قد ينتج نموذج العديد من المخرجات الأخرى التي تتمتع بال同قابلية. ويمكن أن يكون هذا بسبب نقص بيانات التدريب أو التباين في بيانات التدريب أو أسباب أخرى. عند نشر النماذج، يمكن للمنظمات استخدام تقدير عدم اليقين لتزويد مستخدميها النهائيين بفهم أوضح لمدى الثقة التي يجب وضعها في مخرجات نموذج الذكاء الاصطناعي / تعلم الآلة. تقدير عدم اليقين هو عملية تقدير ما يمكن أن تكون عليه تلك المخرجات الأخرى.
تخيل نموذجًا يتنبأ بدرجة الحرارة العالية للغد. قد ينتج النموذج مخرجات 21 درجة مئوية، ولكن تقدير عدم اليقين المطبق على تلك المخرجات قد يشير إلى أن النموذج يمكن أن ينتج مخرجات 12 درجة مئوية أو 15 درجة مئوية أو 16 درجة مئوية؛ ومع معرفة ذلك، كيف نثق الآن في التنبؤ البسيط بدرجة 20 درجة مئوية؟ على الرغم من إمكاناته لتعزيز الثقة أو الحذر، فإن العديد من المنظمات تختار تخطي تقدير عدم اليقين بسبب العمل الإضافي الذي يتعين عليها القيام به لتنفيذه، بالإضافة إلى متطلباته من الموارد الحاسوبية وسرعة الاستدلال.
أنظمة الإنسان في الحلقة، مثل أنظمة التشخيص والتشخيص الطبي، تتضمن البشر كجزء من عملية اتخاذ القرار. من خلال الثقة العمياء في بيانات حلول الذكاء الاصطناعي / تعلم الآلة الصحية، يخاطر المحترفون الصحيون بتشخيص مريض بشكل خاطئ، مما قد يؤدي إلى نتائج صحية رديئة – أو أسوأ. يمكن لتقدير عدم اليقين أن يسمح للمهنيين الصحيين بمعرفة كمية عندما يمكنهم وضع ثقة أكبر في مخرجات الذكاء الاصطناعي ومتى يجب معاملتها بحذر. وبالمثل، في نظام أوتوماتيكي بالكامل مثل سيارة ذاتية القيادة، يمكن لمخرجات نموذج تقدير مسافة عقبة أن تؤدي إلى حادث قد تم تجنبه في وجود تقدير عدم يقين على تقدير المسافة.
تحدي الاستفادة من أساليب مونت كارلو لبناء الثقة في نماذج الذكاء الاصطناعي / تعلم الآلة
أساليب مونت كارلو، التي تم تطويرها خلال مشروع مانهاتن، هي طريقة قوية لتقدير عدم اليقين. تتضمن إعادة تشغيل الخوارزميات بشكل متكرر مع مدخلات مختلفة قليلاً حتى لا توفر المزيد من التكرارات معلومات إضافية في المخرجات؛ عندما يصل العملية إلى这种 الحالة، يقال أنها قد توصلت إلى التقارب. أحد عيوب أساليب مونت كارلو هو أنها عادة ما تكون بطيئة ومكلفة من حيث الحوسبة، وتتطلب العديد من التكرارات من الحسابات المكونة لها للحصول على مخرجات متقاربة ولديها تباين داخلي عبر تلك المخرجات. نظرًا لأن أساليب مونت كارلو تستخدم مخرجات مولدات الأرقام العشوائية كواحدة من المكونات الرئيسية لها، حتى عند تشغيل مونت كارلو مع العديد من التكرارات الداخلية، ستتغير النتائج التي تحصل عليها عند تكرار العملية مع معلمات متطابقة.
مسار التقدم نحو موثوقية نماذج الذكاء الاصطناعي / تعلم الآلة
على عكس الخواديم التقليدية والمسرعين المحددين للذكاء الاصطناعي، يتم تطوير فئة جديدة من منصات الحوسبة لمعالجة التوزيعات الاحتمالية التجريبية بنفس الطريقة التي تعالج بها المنصات الحوسبية التقليدية الأعداد الصحيحة والقيم العائمة. من خلال نشر نماذج الذكاء الاصطناعي على هذه المنصات، يمكن للمنظمات تلقائيًا تنفيذ تقدير عدم اليقين على نماذجها المُدرَّبة مسبقًا ويمكنها أيضًا تسريع مهام الحوسبة الأخرى التي استخدمت تقليديًا أساليب مونت كارلو، مثل حسابات VaR في التمويل. على وجه الخصوص،对于 سيناريو VaR، تسمح هذه الفئة الجديدة من المنصات للمنظمات بالعمل مع التوزيعات التجريبية التي يتم بناؤها مباشرة من البيانات السوقية الفعلية، بدلاً من تقريب هذه التوزيعات bằng عينات تم توليدها بواسطة مولدات الأرقام العشوائية، للحصول على تحليلات أكثر دقة ونتائج أسرع.
الانجازات الحديثة في الحوسبة خفضت بشكل كبير الحواجز أمام تقدير عدم اليقين. يبرز مقال بحثي نُشر مؤخرًا من قبل زملائي وأنا، في ندوة تعلم الآلة مع أنماط الحوسبة الجديدة في NeurIPS 2024، كيف سمحت لنا منصة الحوسبة الجيل التالي التي طوّرناها بتشغيل تحليل تقدير عدم اليقين بسرعة تزيد عن 100 مرة مقارنةً بتشغيل التحليلات القائمة على مونت كارلو التقليدية على خادم Intel-Xeon عالي المستوى. تسمح هذه التقدمات للمنظمات التي تنشر حلول الذكاء الاصطناعي بتنفيذ تقدير عدم اليقين بسهولة و chạyه بحد أدنى من العبء الإضافي.
مستقبل موثوقية الذكاء الاصطناعي / تعلم الآلة يعتمد على الحوسبة المتقدمة الجيل التالي
مع دمج المنظمات لمزيد من حلول الذكاء الاصطناعي في المجتمع، ستصبح موثوقية الذكاء الاصطناعي / تعلم الآلة أولوية قصوى. لا يمكن للشركات بعد الآن التخلي عن تنفيذ المرافق في عمليات نشر نماذج الذكاء الاصطناعي التي تسمح للمستهلكين بمعرفة متى يجب معاملة مخرجات نموذج الذكاء الاصطناعي بتشكيك. الطلب على هذا الشرح و تقدير عدم اليقين واضح، مع إشارة حوالي ثلاثة من أربعة أشخاص إلى أنهم سيكونون أكثر استعدادًا للثقة في نظام الذكاء الاصطناعي إذا كانت آليات التأكيد المناسبة موجودة.
تجعل التكنولوجيا الحوسبية الجديدة من السهل تنفيذ و نشر تقدير عدم اليقين. في حين أن الصناعة والهيئات التنظيمية تتصارع مع التحديات الأخرى المرتبطة بنشر الذكاء الاصطناعي في المجتمع، هناك على الأقل فرصة لتعزيز الثقة التي يحتاجها البشر، من خلال جعل تقدير عدم اليقين هو المعتاد في عمليات نشر الذكاء الاصطناعي.












