اتصل بنا للحصول على مزيد من المعلومات

تقديم مستويات جديدة من الشفافية مع الذكاء الاصطناعي - قادة الفكر

قاده التفكير

تقديم مستويات جديدة من الشفافية مع الذكاء الاصطناعي - قادة الفكر

mm

بقلم بالاكريشنا دي آر ، نائب الرئيس الأول ، رئيس تقديم الخدمات - الطاقة ، والاتصالات ، والخدمات ، وخدمات الذكاء الاصطناعي والأتمتة ، في انفوسيس.

في 9 يناير 2020 ، أخطرت منظمة الصحة العالمية الجمهور بتفشي فيروس كورونا في الصين. قبل ثلاثة أيام ، كانت المراكز الأمريكية لمكافحة الأمراض والوقاية منها قد نشرت الخبر. لكنها كانت منصة مراقبة الصحة الكندية التي ضربتهم على حد سواء لكمة، إرسال كلمة عن تفشي المرض إلى عملائها في وقت مبكر من 31 ديسمبر 2019! تستخدم المنصة ، BlueDot ، خوارزميات تعتمد على الذكاء الاصطناعي وتبحث في التقارير الإخبارية باللغات الأجنبية ، وشبكات أمراض الحيوانات والنباتات ، والإعلانات الرسمية لإعطاء عملائها تحذيرًا مسبقًا لتجنب مناطق الخطر مثل ووهان.

على مدى السنوات القليلة الماضية ، أصبح الذكاء الاصطناعي المصدر الرئيسي للتحول والاضطراب والميزة التنافسية في اقتصاد اليوم سريع التغير. من تتبع الأوبئة إلى الدفاع إلى الرعاية الصحية إلى المركبات ذاتية القيادة وكل شيء بينهما ، يكتسب الذكاء الاصطناعي اعتمادًا على نطاق واسع. تتوقع برايس ووترهاوس كوبرز أن الذكاء الاصطناعي يمكن أن يساهم بما يصل إلى 15.7 تريليون دولار في الاقتصاد العالمي في عام 2030بمعدل نموها الحالي.

ومع ذلك ، على الرغم من كل الأمل الذي يجلبه الذكاء الاصطناعي ، فإنه لا يزال يطرح أسئلة بدون إجابة حول الشفافية والجدارة بالثقة. تعد الحاجة إلى فهم قدرة أنظمة الذكاء الاصطناعي على اتخاذ القرار والتنبؤ بها والثقة بها أمرًا مهمًا لا سيما في المجالات ذات الأهمية الحاسمة للحياة والموت والعافية الشخصية.

 

إلى المجهول

عندما تم تقديم أنظمة الاستدلال الآلي لأول مرة لدعم عملية صنع القرار، اعتمدت على قواعد مصنوعة يدوياً. وفي حين أن هذا جعل من السهل تفسير سلوكهم وتعديله، إلا أنهم لم يكونوا قابلين للتطوير. وصلت النماذج القائمة على التعلم الآلي لتلبية الحاجة الأخيرة؛ ولم يتطلبوا تدخلًا بشريًا وكان بإمكانهم التدريب بناءً على البيانات - وكلما زاد عددها كان ذلك أفضل. في حين أن نماذج التعلم العميق غير مسبوقة في قدرتها على النمذجة ونطاق قابلية التطبيق، فإن حقيقة أن هذه النماذج عبارة عن صناديق سوداء في معظمها، تثير أسئلة مثيرة للقلق بشأن صحتها ومصداقيتها وتحيزاتها في سياق استخدامها على نطاق واسع.

لا توجد حاليًا آلية مباشرة لتتبع المنطق المستخدم ضمنيًا بواسطة نماذج التعلم العميق. مع نماذج التعلم الآلي التي لها طبيعة الصندوق الأسود ، يُعرف النوع الأساسي من القابلية للتفسير باسم قابلية التفسير اللاحقة ، مما يعني أن التفسيرات مشتقة من طبيعة وخصائص المخرجات الناتجة عن النموذج. لا يتم حاليًا متابعة المحاولات المبكرة لاستخراج القواعد من الشبكات العصبية (كما كان التعلم العميق معروفًا سابقًا) نظرًا لأن الشبكات أصبحت كبيرة جدًا ومتنوعة لاستخراج القواعد القابلة للتتبع. لذلك ، هناك حاجة ملحة لإدخال القابلية للتفسير والشفافية في نسيج نمذجة الذكاء الاصطناعي.

 

الخروج من الليل ، أدخل الضوء

أدى هذا القلق إلى خلق حاجة إلى الشفافية في التعلم الآلي ، مما أدى إلى نمو الذكاء الاصطناعي القابل للتفسير ، أو XAI. يسعى إلى معالجة القضايا الرئيسية التي تعيق قدرتنا على الثقة الكاملة في صنع القرار في الذكاء الاصطناعي - بما في ذلك التحيز والشفافية. يجلب هذا المجال الجديد من الذكاء الاصطناعي المساءلة لضمان أن الذكاء الاصطناعي يفيد المجتمع بنتائج أفضل لجميع المعنيين.

ستكون XAI حاسمة في المساعدة في التحيز المتأصل في أنظمة وخوارزميات الذكاء الاصطناعي ، والتي تمت برمجتها من قبل أشخاص تؤدي خلفياتهم وخبراتهم عن غير قصد إلى تطوير أنظمة ذكاء اصطناعي تظهر التحيز. قد تتسلل التحيزات غير المرغوب فيها مثل التمييز ضد جنسية أو عرق معين لأن النظام يضيف قيمة إليه بناءً على بيانات حقيقية. لتوضيح ذلك ، قد يتبين أن المتعثرين في الحصول على قرض نموذجي يأتون من خلفية عرقية معينة ، ومع ذلك ، فإن تنفيذ أي سياسة تقييدية تستند إلى هذا قد يكون ضد الممارسات العادلة. البيانات الخاطئة هي سبب آخر للتحيز. على سبيل المثال ، إذا كان ماسحًا معينًا للتعرف على الوجوه غير دقيق بنسبة 5٪ من الوقت بسبب بشرة الشخص أو الضوء الذي يسقط على الوجه ، فقد يؤدي إلى التحيز. أخيرًا ، إذا لم تكن بيانات العينة تمثل تمثيلًا حقيقيًا لجميع السكان ، فإن التحيز أمر لا مفر منه.

تهدف XAI إلى معالجة كيفية التوصل إلى قرارات الصندوق الأسود لأنظمة الذكاء الاصطناعي. يتفقد ويحاول فهم الخطوات والنماذج المتضمنة في اتخاذ القرارات. يجيب على أسئلة مهمة مثل: لماذا اتخذ نظام الذكاء الاصطناعي تنبؤًا أو قرارًا محددًا؟ لماذا لم يفعل نظام الذكاء الاصطناعي شيئًا آخر؟ متى نجح نظام الذكاء الاصطناعي أو فشل؟ متى تمنح أنظمة الذكاء الاصطناعي الثقة الكافية في القرار بحيث يمكنك الوثوق به ، وكيف يمكن لنظام الذكاء الاصطناعي تصحيح الأخطاء؟

 

ذكاء اصطناعي قابل للتفسير ويمكن التنبؤ به ويمكن تتبعه

تتمثل إحدى طرق اكتساب القابلية للتفسير في أنظمة الذكاء الاصطناعي في استخدام خوارزميات التعلم الآلي القابلة للتفسير بطبيعتها. على سبيل المثال ، أشكال أبسط من التعلم الآلي مثل أشجار القرار ومصنفات بايز والخوارزميات الأخرى التي لديها قدر معين من التتبع والشفافية في صنع القرار. يمكنهم توفير الرؤية اللازمة لأنظمة الذكاء الاصطناعي الهامة دون التضحية بالكثير من الأداء أو الدقة.

مع ملاحظة الحاجة إلى توفير إمكانية الشرح للتعلم العميق ونُهج خوارزمية أخرى أكثر تعقيدًا ، تتابع وكالة مشروع الأبحاث الدفاعية المتقدمة الأمريكية (DARPA) الجهود من أجل إنتاج حلول ذكاء اصطناعي قابلة للتفسير من خلال عدد من المبادرات البحثية الممولة. تصف DARPA إمكانية شرح الذكاء الاصطناعي في ثلاثة أجزاء تشمل: دقة التنبؤ ، مما يعني أن النماذج سوف تشرح كيفية الوصول إلى الاستنتاجات لتحسين عملية صنع القرار في المستقبل ؛ فهم القرار والثقة من المستخدمين والمشغلين من البشر ، وكذلك التفتيش وتتبع الإجراءات التي تقوم بها أنظمة الذكاء الاصطناعي.

ستعمل إمكانية التتبع على تمكين البشر من الدخول في حلقات اتخاذ قرارات الذكاء الاصطناعي ولديهم القدرة على التوقف أو التحكم في مهامه ، كلما دعت الحاجة إلى ذلك. لا يُتوقع من نظام الذكاء الاصطناعي أن يؤدي مهمة معينة أو يفرض قرارات فحسب ، بل يقدم أيضًا تقريرًا شفافًا عن سبب اتخاذ قرارات محددة مع الأساس المنطقي الداعم.

توحيد الخوارزميات أو حتى مناهج XAI ليس ممكنًا حاليًا ، ولكن قد يكون من الممكن بالتأكيد توحيد مستويات الشفافية / مستويات القابلية للتفسير. تحاول منظمات المعايير الوصول إلى تفاهمات مشتركة ومعيارية لهذه المستويات من الشفافية لتسهيل الاتصال بين المستخدمين النهائيين وبائعي التكنولوجيا.

نظرًا لأن الحكومات والمؤسسات والشركات وعامة الناس تعتمد على الأنظمة القائمة على الذكاء الاصطناعي ، فإن كسب ثقتهم من خلال شفافية أوضح في عملية صنع القرار سيكون أمرًا أساسيًا. إن إطلاق المؤتمر العالمي الأول المخصص حصريًا لـ XAI ، المؤتمر الدولي المشترك حول الذكاء الاصطناعي: ورشة عمل حول الذكاء الاصطناعي القابل للتفسير ، هو دليل آخر على أن عصر XAI قد حان.

بالاكريشنا ، المعروف باسم بالي DR ، هو رئيس الذكاء الاصطناعي والأتمتة في انفوسيس حيث يقود كلاً من الأتمتة الداخلية لشركة Infosys ويوفر خدمات أتمتة مستقلة تستفيد من المنتجات للعملاء. تعمل بالي مع Infosys منذ أكثر من 25 عامًا وقد لعبت أدوارًا في المبيعات وإدارة البرامج والتسليم عبر مناطق جغرافية مختلفة وقطاعات صناعية مختلفة.