الأخلاقيات
تنشئ Google برنامجًا جديدًا للذكاء الاصطناعي قابل للتفسير لتعزيز الشفافية وإمكانية التصحيح

أعلنت Google مؤخرًا عن إنشاء منصة سحابية جديدة تهدف إلى اكتساب نظرة ثاقبة حول كيفية قيام برنامج الذكاء الاصطناعي بإصدار القرارات ، مما يجعل تصحيح أخطاء البرنامج أسهل ويعزز الشفافية. كما ذكرت السجل، يُطلق على النظام الأساسي السحابي اسم Explainable AI ، وهو يمثل محاولة كبيرة من قِبل Google للاستثمار في إمكانية شرح الذكاء الاصطناعي.
تُستخدم الشبكات العصبية الاصطناعية في العديد، وربما معظم، أنظمة الذكاء الاصطناعي الرئيسية المستخدمة في العالم اليوم. يمكن أن تكون الشبكات العصبية التي تدير تطبيقات الذكاء الاصطناعي الرئيسية معقدة وكبيرة بشكل غير عادي، ومع تزايد تعقيد النظام، يصبح من الصعب أكثر فأكثر فهم سبب اتخاذ النظام لقرار معين. وكما أوضحت جوجل في ورقتها البيضاء، عندما تصبح أنظمة الذكاء الاصطناعي أكثر قوة، فإنها تصبح أيضًا أكثر تعقيدًا وبالتالي يصعب تصحيحها. يتم فقدان الشفافية أيضًا عند حدوث ذلك، مما يعني أنه قد يكون من الصعب التعرف على الخوارزميات المتحيزة ومعالجتها.
حقيقة أن المنطق الذي يدفع سلوك الأنظمة المعقدة يصعب تفسيره غالبًا ما يكون له عواقب وخيمة. بالإضافة إلى صعوبة مكافحة تحيز الذكاء الاصطناعي ، يمكن أن يجعل من الصعب للغاية التمييز بين الارتباطات الزائفة والارتباطات المهمة والمثيرة للاهتمام حقًا.
تستكشف العديد من الشركات والمجموعات البحثية كيفية معالجة مشكلة "الصندوق الأسود" للذكاء الاصطناعي وإنشاء نظام يشرح بشكل مناسب سبب اتخاذ قرارات معينة بواسطة الذكاء الاصطناعي. تمثل منصة الذكاء الاصطناعي القابلة للتفسير من Google محاولتها الخاصة لمواجهة هذا التحدي. يتكون الذكاء الاصطناعي القابل للتفسير من ثلاث أدوات مختلفة. الأداة الأولى عبارة عن نظام يصف الميزات التي تم تحديدها بواسطة الذكاء الاصطناعي كما يعرض أيضًا درجة الإحالة التي تمثل مقدار تأثير ميزة معينة على التنبؤ النهائي. يقدم تقرير Google عن الأداة مثالاً للتنبؤ بالمدة التي ستستغرقها رحلة الدراجة بناءً على متغيرات مثل هطول الأمطار ودرجة الحرارة الحالية ويوم الأسبوع ووقت البدء. بعد أن تصدر الشبكة القرار ، يتم تقديم التعليقات التي تعرض الميزات التي كان لها أكبر تأثير على التنبؤات.
كيف توفر هذه الأداة مثل هذه التعليقات في حالة بيانات الصورة؟ في هذه الحالة ، تُنتج الأداة تراكبًا يبرز مناطق الصورة الأكثر ترجيحًا على القرار المعروض.
هناك أداة أخرى موجودة في مجموعة الأدوات وهي أداة "What-If" ، والتي تعرض التقلبات المحتملة في أداء النموذج حيث يتم التلاعب بالسمات الفردية. أخيرًا ، يمكن إعداد الأداة الأخيرة لإعطاء نتائج عينة للمراجعين البشريين وفقًا لجدول زمني ثابت.
وصف الدكتور أندرو مور، كبير علماء الذكاء الاصطناعي والتعلم الآلي في جوجل، مصدر إلهام هذا المشروع. وأوضح مور أنه قبل حوالي خمس سنوات، بدأ المجتمع الأكاديمي يشعر بالقلق إزاء الآثار الضارة لاستخدام الذكاء الاصطناعي، وأن جوجل أرادت ضمان استخدام أنظمتها بطرق أخلاقية فقط. ووصف مور حادثة حاولت فيها الشركة تصميم برنامج رؤية حاسوبية لتنبيه عمال البناء في حال عدم ارتداء أحدهم خوذة، لكنهم شعروا بالقلق من أن المراقبة قد تتجاوز الحد وتصبح مهينة. وقال مور إن هناك سببًا مشابهًا لعدم إصدار جوجل واجهة برمجة تطبيقات عامة للتعرف على الوجوه، حيث أرادت الشركة مزيدًا من التحكم في كيفية استخدام تقنيتها وضمان استخدامها بطرق أخلاقية فقط.
أبرز مور أيضا لماذا كان من المهم جدًا أن يكون قرار الذكاء الاصطناعي قابلاً للتفسير:
إذا كان لديك نظامٌ أمنيٌّ بالغ الأهمية أو أمرٌ مهمٌّ للمجتمع، وقد تكون له عواقب غير مقصودة إذا اعتقدتَ أن نموذجك قد ارتكب خطأً، فيجب أن تكون قادرًا على تشخيصه. نريد أن نشرح بدقةٍ ما يمكن أن تفعله وما لا يمكن أن تفعله قابلية التفسير. إنها ليست حلاً سحريًا.