الذكاء الاصطناعي
تقديم مستويات جديدة من الشفافية مع الذكاء الاصطناعي – قادة الفكر

بواسطة بالاكريشنا دي آر، نائب الرئيس الأول، رئيس العرض الخدمي – الطاقة، والاتصالات، والخدمات، وخدمات الذكاء الاصطناعي والآلية، في Infosys.
في 9 يناير 2020، أعلنت منظمة الصحة العالمية للجمهور عن تفشي فيروس كورونا في الصين. قبل ثلاثة أيام، كان مركز السيطرة على الأمراض في الولايات المتحدة قد أبلغ بالفعل. ولكن كانت منصة مراقبة الصحة الكندية كانت قد سبقتهم، وأرسلت كلمة عن التفشي إلى عملائها في وقت مبكر منذ 31 ديسمبر 2019! تستخدم المنصة، بلو دوت، خوارزميات مدفوعة بالذكاء الاصطناعي التي تبحث تقارير الأخبار باللغات الأجنبية، وشبكات أمراض الحيوانات والنباتات، والإعلانات الرسمية لتقديم تحذيرات مسبقة لعملائها لتجنب مناطق الخطر مثل ووهان.
على مدى السنوات القليلة الماضية، أصبح الذكاء الاصطناعي مصدرًا رئيسيًا للتحول والاضطراب والميزة التنافسية في اقتصاد اليوم المتغير بسرعة. من تتبع الأوبئة إلى الدفاع والرعاية الصحية والمركبات ذاتية القيادة وكل شيء بينهما، يكتسب الذكاء الاصطناعي انتشارًا على نطاق واسع. تتنبأ شركة بيرس ووترهاوس كوبرز بأن الذكاء الاصطناعي يمكن أن يساهم بما يصل إلى 15.7 تريليون دولار في الاقتصاد العالمي في عام 2030، بمعدل نمو حالي.
ومع ذلك، فإن كل الأمل الذي يحمله الذكاء الاصطناعي، لا يزال يطرح أسئلة غير مجابة حول الشفافية والموثوقية. هناك حاجة لفهم وتنبؤ بالقدرة على اتخاذ القرارات لأنظمة الذكاء الاصطناعي، وأهمية ذلك خاصة في المجالات الحيوية للحياة والموت والرفاهية الشخصية.
دخول المجهول
عندما تم تقديم أنظمة الاستدلال الآلي لأول مرة لدعم اتخاذ القرارات، اعتمدت على قواعد محددة يدوياً. بينما جعل ذلك من السهل تفسير سلوكها وتعديله، لم تكن قابلة للتوسيع. جاءت نماذج التعلم الآلي لتلبية هذه الحاجة؛ لم تكن تتطلب تدخل إنسانيًا ويمكنها التدريب من البيانات – وكلما زادت البيانات، زادت جودة النموذج. بينما تتمتع نماذج التعلم العميق بقدرة فريدة على النمذجة ومدى تطبيقها، فإن حقيقة أن هذه النماذج هي صناديق سوداء في معظم الأحيان، تثير أسئلة مخيفة بشأن صحتها وموثوقيتها وتحيزاتها في سياق استخدامها الواسع.
في الوقت الحالي، لا توجد آلية مباشرة لتتبع المنطق المستخدم بشكل ضمني من قبل نماذج التعلم العميق. مع نماذج التعلم الآلي التي تتمتع بطابع الصندوق الأسود، النوع الرئيسي من القابلية للتفسير هو ما يسمى بالتفسير التالي، مما يعني أن التفسيرات مستمدة من طبيعة وخصائص الإخراج التي ينتجها النموذج. لم تكن المحاولات المبكرة لاستخراج القواعد من الشبكات العصبية (كما كان يعرف التعلم العميق في السابق) تُطَور حاليًا منذ أن أصبحت الشبكات كبيرة ومتنوعة جدًا لاستخراج قواعد قابلة للتسلسل. لذلك، هناك حاجة ملحة لإدخال القابلية للتفسير والشفافية في نسيج نمذجة الذكاء الاصطناعي.
خروج الليل، دخول النور
أدى هذا القلق إلى حاجة للشفافية في التعلم الآلي، مما أدى إلى نمو الذكاء الاصطناعي القابل للتفسير، أو XAI. يهدف إلى معالجة القضايا الرئيسية التي تعوق khảيتنا الثقة الكاملة في اتخاذ القرارات بواسطة الذكاء الاصطناعي – بما في ذلك التحيز والشفافية. هذا المجال الجديد من الذكاء الاصطناعي يضمن المساءلة لضمان أن يستفيد المجتمع من الذكاء الاصطناعي بمخرجات أفضل لجميع الأطراف المعنية.
سي يكون XAI حاسمًا في مساعدة تحيز الذكاء الاصطناعي والنظم والخوارزميات، والتي يتم برمجتها بواسطة أشخاص يؤثرون في خلفياتهم وخبراتهم بشكل غير مقصود على تطوير أنظمة الذكاء الاصطناعي التي تظهر تحيزًا. قد يتسلل التحيز غير المرغوب فيه، مثل التمييز ضد جنسية أو عرقية معينة، لأن النظام يضيف قيمة إليه بناءً على البيانات الفعلية. على سبيل المثال، قد يُ发现 أن المخالفين العاديين للقروض يأتون من خلفية عرقية معينة، ومع ذلك، قد يكون تطبيق أي سياسة تقييدية بناءً على ذلك ضد الممارسات العادلة. البيانات الخاطئة هي أيضًا سبب للتحيز. على سبيل المثال، إذا كان جهاز مسح التعرف على الوجه غير دقيق بنسبة 5٪ بسبب لون البشرة أو الضوء الساقط على الوجه، فقد يؤدي ذلك إلى تحيز. وأخيرًا، إذا لم تكن بيانات العينة تمثل السكان ككل، فمن المحتمل أن يحدث تحيز.
يهدف XAI إلى معالجة كيفية وصول قرارات أنظمة الذكاء الاصطناعي إلى الصندوق الأسود. يفحص ويهتم بفهم الخطوات والنماذج المشاركة في اتخاذ القرارات. إنه ي回答 أسئلة حاسمة مثل: لماذا اتخذ نظام الذكاء الاصطناعي تنبؤًا أو قرارًا معينًا؟ لماذا لم يفعل نظام الذكاء الاصطناعي شيئًا آخر؟ متى نجح نظام الذكاء الاصطناعي أو فشل؟ متى تمنح أنظمة الذكاء الاصطناعي ثقة كافية في القرار بحيث تثق به، وكيف يمكن لنظام الذكاء الاصطناعي تصحيح الأخطاء؟
ذكاء اصطناعي قابل للتفسير وقابل للتنبؤ وقابل للتتبع
طريقة واحدة لتحقيق القابلية للتفسير في أنظمة الذكاء الاصطناعي هي استخدام خوارزميات التعلم الآلي التي تتمتع بشكل nộiزي بالفطرة. على سبيل المثال، أشكال أبسط من التعلم الآلي مثل أشجار القرار والفئة البيزية والخوارزميات الأخرى التي تتمتع بدرجات معينة من التتبع والشفافية في اتخاذ القرارات. يمكنهم توفير الرؤية اللازمة لأنظمة الذكاء الاصطناعي الحيوية دون التضحية بأداء أو دقة كبيرة.
ملاحظة الحاجة إلى توفير القابلية للتفسير للتعلم العميق والمناهج الخوارزمية الأكثر تعقيدًا، تعمل وكالة الأبحاث المتقدمة الدفاعية الأمريكية (DARPA) على إنتاج حلول ذكاء اصطناعي قابل للتفسير من خلال مبادرات بحثية ممولة. تصف DARPA قابلية تفسير الذكاء الاصطناعي في ثلاثة أجزاء تشمل: دقة التنبؤ، مما يعني أن النماذج سوف تفسر كيفية الوصول إلى الاستنتاجات لتحسين اتخاذ القرارات في المستقبل؛ فهم القرار و الثقة من قبل المستخدمين والمنفذين البشر، وكذلك تفتيش وتتبع الإجراءات التي يقوم بها أنظمة الذكاء الاصطناعي.
سوف تمنح التتبع البشر القدرة على الدخول في حلقات اتخاذ القرارات بواسطة الذكاء الاصطناعي وسيطرة مهامها، أو إيقافها، في أي وقت يSeen. من المتوقع أن يقوم نظام الذكاء الاصطناعي ليس فقط بتنفيذ مهمة معينة أو فرض قرارات، ولكن أيضًا تقديم تقرير شفاف حول سبب اتخاذ قرارات معينة مع الحجج الداعمة.
في الوقت الحالي، لا يوجد стандرد لخوارزميات XAI. ومع ذلك، قد يكون من الممكن стандرد مستويات الشفافية / مستويات القابلية للتفسير. تعمل منظمات المعايير على التوصل إلى فهم مشترك ومعياري لمستويات الشفافية هذه لتسهيل التواصل بين المستخدمين النهائيين وبائعي التكنولوجيا.
随着 اعتماد الحكومات والمؤسسات والشركات والجمهور العام لأنظمة الذكاء الاصطناعي، سيكون الفوز بثقتهم من خلال شفافية أوضح لعمليات اتخاذ القرارات أساسيًا. إطلاق أول مؤتمر عالمي حصرا مخصص ل XAI، المؤتمر الدولي المشترك حول الذكاء الاصطناعي: ورشة عمل حول الذكاء الاصطناعي القابل للتفسير، هو دليل إضافي على أن عصر XAI قد جاء.












