رطم ما هو الذكاء الاصطناعي القابل للتفسير؟ - اتحدوا
اتصل بنا للحصول على مزيد من المعلومات
دروس متقدمة في الذكاء الاصطناعي:

منظمة العفو الدولية 101

ما هو الذكاء الاصطناعي القابل للتفسير؟

تحديث on
الصورة: DeepMind على Unsplash

نظرًا لأن الذكاء الاصطناعي (AI) يصبح أكثر تعقيدًا ويتم اعتماده على نطاق واسع عبر المجتمع ، فإن إحدى أكثر مجموعات العمليات والأساليب أهمية هي قابلة للتفسير (AI) ، ويشار إليها أحيانًا باسم XAI. 

يمكن تعريف الذكاء الاصطناعي القابل للتفسير على أنه:

  • مجموعة من العمليات والأساليب التي تساعد المستخدمين على فهم نتائج خوارزميات التعلم الآلي والثقة بها. 

كما يمكنك التخمين ، فإن قابلية الشرح هذه مهمة للغاية لأن خوارزميات الذكاء الاصطناعي تسيطر على العديد من القطاعات ، والتي تأتي مع خطر التحيز ، والخوارزميات الخاطئة ، وغيرها من القضايا. من خلال تحقيق الشفافية مع القابلية للتفسير ، يمكن للعالم الاستفادة حقًا من قوة الذكاء الاصطناعي. 

يساعد الذكاء الاصطناعي القابل للتفسير ، كما يوحي الاسم ، في وصف نموذج الذكاء الاصطناعي وتأثيره والتحيزات المحتملة. كما أنه يلعب دورًا في توصيف دقة النموذج والإنصاف والشفافية والنتائج في عمليات صنع القرار التي تعتمد على الذكاء الاصطناعي. 

يجب على المنظمات التي يقودها الذكاء الاصطناعي اليوم أن تتبنى دائمًا عمليات الذكاء الاصطناعي القابلة للتفسير للمساعدة في بناء الثقة في نماذج الذكاء الاصطناعي في الإنتاج. يُعد الذكاء الاصطناعي القابل للتفسير أيضًا مفتاحًا لتصبح شركة مسؤولة في بيئة الذكاء الاصطناعي الحالية.

نظرًا لأن أنظمة الذكاء الاصطناعي اليوم متطورة جدًا ، يقوم البشر عادةً بعملية حسابية لتعقب كيفية وصول الخوارزمية إلى نتيجتها. تصبح هذه العملية "الصندوق الأسود" ، مما يعني أنه من المستحيل فهمها. عندما يتم تطوير هذه النماذج غير القابلة للتفسير مباشرة من البيانات ، لا أحد يستطيع فهم ما يحدث بداخلها. 

من خلال فهم كيفية عمل أنظمة الذكاء الاصطناعي من خلال الذكاء الاصطناعي القابل للتفسير ، يمكن للمطورين التأكد من أن النظام يعمل كما ينبغي. يمكن أن يساعد أيضًا في ضمان استيفاء النموذج للمعايير التنظيمية ، ويوفر الفرصة للطعن في النموذج أو تغييره. 

الصورة: د. مات توريك / داربا

الاختلافات بين AI و XAI

تساعد بعض الاختلافات الرئيسية في فصل الذكاء الاصطناعي "العادي" عن الذكاء الاصطناعي القابل للتفسير ، ولكن الأهم من ذلك ، أن XAI تنفذ تقنيات وطرق محددة تساعد في ضمان إمكانية تتبع كل قرار في عملية تعلم الآلة وتفسيره. بالمقارنة ، عادةً ما يصل الذكاء الاصطناعي العادي إلى نتائجه باستخدام خوارزمية ML ، لكن من المستحيل أن نفهم تمامًا كيف وصلت الخوارزمية إلى النتيجة. في حالة الذكاء الاصطناعي العادي ، من الصعب للغاية التحقق من الدقة ، مما يؤدي إلى فقدان السيطرة والمساءلة والقابلية للتدقيق. 

فوائد الذكاء الاصطناعي القابل للتفسير 

هناك العديد من الفوائد لأي منظمة تتطلع إلى اعتماد الذكاء الاصطناعي القابل للتفسير ، مثل: 

  • نتائج أسرع: يمكّن الذكاء الاصطناعي القابل للتفسير المؤسسات من مراقبة النماذج وإدارتها بشكل منهجي لتحسين نتائج الأعمال. من الممكن التقييم المستمر لأداء النموذج وتحسينه وتحسين تطوير النموذج.
  • التخفيف من المخاطر: من خلال اعتماد عمليات الذكاء الاصطناعي القابلة للتفسير ، فإنك تضمن أن نماذج الذكاء الاصطناعي الخاصة بك قابلة للتفسير وشفافة. يمكنك إدارة المتطلبات التنظيمية والامتثال والمخاطر والمتطلبات الأخرى مع تقليل النفقات العامة للفحص اليدوي. كل هذا يساعد أيضًا في التخفيف من مخاطر التحيز غير المقصود. 
  • بناء الثقة: يساعد الذكاء الاصطناعي القابل للتفسير على بناء الثقة في إنتاج الذكاء الاصطناعي. يمكن إحضار نماذج الذكاء الاصطناعي بسرعة إلى الإنتاج ، ويمكنك ضمان القابلية للتفسير وإمكانية الشرح ، ويمكن تبسيط عملية تقييم النموذج وجعلها أكثر شفافية. 

تقنيات الذكاء الاصطناعي القابل للتفسير

هناك بعض تقنيات XAI التي يجب على جميع المنظمات مراعاتها ، وهي تتكون من ثلاث طرق رئيسية: دقة التنبؤ, التتبعو فهم القرار

أول الطرق الثلاث ، دقة التنبؤ، ضروري لاستخدام الذكاء الاصطناعي بنجاح في العمليات اليومية. يمكن إجراء عمليات المحاكاة ، ويمكن مقارنة إخراج XAI بالنتائج في مجموعة بيانات التدريب ، مما يساعد على تحديد دقة التنبؤ. أحد الأساليب الأكثر شيوعًا لتحقيق ذلك هو التفسيرات المحايدة للنموذج المحلي القابل للتفسير (LIME) ، وهي تقنية تشرح تنبؤ المصنفات بواسطة خوارزمية التعلم الآلي. 

الطريقة الثانية هي التتبع، والذي يتم تحقيقه من خلال الحد من كيفية اتخاذ القرارات ، بالإضافة إلى إنشاء نطاق أضيق لقواعد وميزات التعلم الآلي. واحدة من أكثر تقنيات التتبع شيوعًا هي DeepLIFT ، أو ميزات التعلم العميق المهمة. يقارن DeepLIFT تنشيط كل خلية عصبية بالخلايا العصبية المرجعية مع إظهار ارتباط يمكن تتبعه بين كل خلية عصبية نشطة. كما يظهر التبعيات بينهما. 

الطريقة الثالثة والأخيرة هي فهم القرار، والتي تركز على الإنسان ، على عكس الطريقتين الأخريين. يتضمن فهم القرار تثقيف المنظمة ، وتحديداً الفريق الذي يعمل مع الذكاء الاصطناعي ، لتمكينهم من فهم كيف ولماذا يتخذ الذكاء الاصطناعي القرارات. هذه الطريقة ضرورية لبناء الثقة في النظام. 

مبادئ الذكاء الاصطناعي القابلة للتفسير

لتوفير فهم أفضل لـ XAI ومبادئها ، يقدم المعهد الوطني للمعايير (NIST) ، وهو جزء من وزارة التجارة الأمريكية ، تعريفات لأربعة مبادئ للذكاء الاصطناعي القابل للتفسير: 

  1. يجب أن يوفر نظام الذكاء الاصطناعي الدليل أو الدعم أو المنطق لكل ناتج. 
  2. يجب أن يقدم نظام الذكاء الاصطناعي تفسيرات يمكن لمستخدميه فهمها. 
  3. يجب أن يعكس التفسير بدقة العملية التي يستخدمها النظام للوصول إلى مخرجاته. 
  4. يجب أن يعمل نظام الذكاء الاصطناعي فقط في ظل الظروف التي صُمم من أجلها ، ولا ينبغي أن يقدم مخرجات عندما يفتقر إلى الثقة الكافية في النتيجة. 

يمكن تنظيم هذه المبادئ بشكل أكبر في: 

  • ذو معنى: لتحقيق مبدأ المعنى ، يجب على المستخدم فهم التفسير المقدم. قد يعني هذا أيضًا أنه في حالة استخدام خوارزمية الذكاء الاصطناعي من قبل أنواع مختلفة من المستخدمين ، فقد يكون هناك العديد من التفسيرات. على سبيل المثال ، في حالة السيارة ذاتية القيادة ، قد يكون أحد التفسيرات على غرار ... "صنفت منظمة العفو الدولية الكيس البلاستيكي في الطريق على أنها صخرة ، وبالتالي اتخذت إجراءات لتجنب الاصطدام بها." على الرغم من أن هذا المثال سيعمل مع برنامج التشغيل ، إلا أنه لن يكون مفيدًا جدًا لمطور الذكاء الاصطناعي الذي يتطلع إلى حل المشكلة. في هذه الحالة ، يجب أن يفهم المطور سبب سوء التصنيف. 
  • دقة الشرح: على عكس دقة الإخراج ، تتضمن دقة التفسير خوارزمية الذكاء الاصطناعي التي تشرح بدقة كيفية وصولها إلى مخرجاتها. على سبيل المثال ، إذا كانت خوارزمية الموافقة على القرض تشرح قرارًا بناءً على دخل الطلب بينما في الواقع ، كان يستند إلى مكان إقامة مقدم الطلب ، فسيكون التفسير غير دقيق. 
  • حدود المعرفة: يمكن الوصول إلى حدود المعرفة الخاصة بالذكاء الاصطناعي بطريقتين ، وهي تتضمن أن تكون المدخلات خارج خبرة النظام. على سبيل المثال ، إذا تم إنشاء نظام لتصنيف أنواع الطيور وتم إعطاؤه صورة لتفاحة ، فيجب أن يكون قادرًا على توضيح أن الإدخال ليس طائرًا. إذا تم إعطاء النظام صورة ضبابية ، فيجب أن يكون قادرًا على الإبلاغ عن عدم قدرته على التعرف على الطائر في الصورة ، أو بدلاً من ذلك ، أن تعريفه له ثقة منخفضة جدًا. 

دور البيانات في الذكاء الاصطناعي القابل للتفسير

تعد البيانات من أهم مكونات الذكاء الاصطناعي القابل للتفسير. 

وفقًا شراء مراجعات جوجلفيما يتعلق بالبيانات والذكاء الاصطناعي القابل للتفسير ، "يُفهم نظام الذكاء الاصطناعي بشكل أفضل من خلال بيانات التدريب الأساسية وعملية التدريب ، بالإضافة إلى نموذج الذكاء الاصطناعي الناتج." يعتمد هذا الفهم على القدرة على تعيين نموذج ذكاء اصطناعي مدرب لمجموعة البيانات الدقيقة المستخدمة لتدريبه ، بالإضافة إلى القدرة على فحص البيانات عن كثب. 

لتعزيز إمكانية شرح النموذج ، من المهم الانتباه إلى بيانات التدريب. يجب أن تحدد الفرق أصل البيانات المستخدمة لتدريب الخوارزمية ، والشرعية والأخلاق التي تحيط بالحصول عليها ، وأي تحيز محتمل في البيانات ، وما الذي يمكن فعله للتخفيف من أي تحيز. 

جانب آخر مهم للبيانات و XAI هو أنه يجب استبعاد البيانات غير ذات الصلة بالنظام. لتحقيق ذلك ، يجب عدم تضمين البيانات غير ذات الصلة في مجموعة التدريب أو بيانات الإدخال. 

أوصت Google بمجموعة من الممارسات لتحقيق القابلية للتفسير والمساءلة: 

  • خطط لخياراتك لمتابعة القابلية للتفسير
  • تعامل مع القابلية للتفسير كجزء أساسي من تجربة المستخدم
  • صمم النموذج ليكون قابلاً للتفسير
  • اختر المقاييس لتعكس الهدف النهائي والمهمة النهائية
  • افهم النموذج المدرب
  • إيصال التفسيرات إلى المستخدمين النموذجيين
  • قم بإجراء الكثير من الاختبارات للتأكد من أن نظام الذكاء الاصطناعي يعمل على النحو المنشود 

باتباع هذه الممارسات الموصى بها ، يمكن لمؤسستك أن تضمن تحقيقها للذكاء الاصطناعي القابل للتفسير ، وهو أمر أساسي لأي منظمة مدفوعة بالذكاء الاصطناعي في بيئة اليوم. 

 

أليكس ماكفارلاند صحفي وكاتب في مجال الذكاء الاصطناعي يستكشف أحدث التطورات في مجال الذكاء الاصطناعي. لقد تعاون مع العديد من الشركات الناشئة والمنشورات في مجال الذكاء الاصطناعي في جميع أنحاء العالم.