الأخلاقيات
باحثون يطورون خوارزميات تهدف إلى منع السلوك السيئ في الذكاء الاصطناعي

إلى جانب جميع التقدمات والفوائد التي أظهرها الذكاء الاصطناعي حتى الآن، كانت هناك أيضًا تقارير عن الآثار الجانبية غير المرغوب فيها مثل التحيز العرقي والجنساني في الذكاء الاصطناعي. لذلك، كما يطرح sciencealert.com السؤال “كيف يمكن للعلماء ضمان أن تكون أنظمة التفكير المتقدمة عادلة، أو حتى آمنة؟”
يمكن أن تكون الإجابة في تقرير الباحثين في ستانفورد و جامعة ماساتشوستس أمهرست، بعنوان منع السلوك غير المرغوب فيه للأجهزة الذكية. كما يشير eurekaalert.org في قصته حول هذا التقرير، فإن الذكاء الاصطناعي يبدأ الآن في التعامل مع المهام الحساسة، لذلك “يصرّ صنّاع السياسات على أن يقدم علماء الحاسوب ضمانات بأن الأنظمة الآلية تم تصميمها لتقليل، إن لم يكن تجنب، النتائج غير المرغوب فيها مثل المخاطر الزائدة أو التحيز العرقي والجنساني.”
يحدد التقرير الذي قدمه فريق من الباحثين ” تقنية جديدة تترجم هدفًا غامضًا، مثل تجنب التحيز الجنساني، إلى معايير رياضية دقيقة من شأنها أن تتيح لخوارزمية تعلم الآلة تدريب تطبيق الذكاء الاصطناعي على تجنب هذا السلوك.”
الغرض كان، كما يشير إيما برونسكيل، أستاذ مساعد في علوم الحاسوب في ستانفورد وكاتب أول للورقة “نريد التقدم في الذكاء الاصطناعي الذي يحترم قيم مستخدميه البشر ويبرر الثقة التي نضعها في الأنظمة الآلية.”
كان الفكرة هي تحديد “النتائج أو السلوكيات غير الآمنة أو غير العادلة” بالterms الرياضية. وهذا، وفقًا للباحثين، سيجعل من الممكن “إنشاء خوارزميات يمكنها التعلم من البيانات حول كيفية تجنب هذه النتائج غير المرغوب فيها بثقة عالية.”
الهدف الثاني كان “تطوير مجموعة من التقنيات التي تجعل من السهل على المستخدمين تحديد ما النوع من السلوك غير المرغوب فيه الذي يريدون تقييده وتتمكن مصممي تعلم الآلة من التنبؤ بثقة أن النظام المدرب باستخدام البيانات السابقة يمكن الاعتماد عليه عند تطبيقه في ظروف العالم الحقيقي.”
يقول ScienceAlert أن الفريق أطلق على هذا النظام الجديد اسم خوارزميات سيلدوني، بعد الشخصية الرئيسية في سلسلة روايات الخيال العلمي الشهيرة Foundation لآيزاك أسيموف. ويشير فيليب توماس، أستاذ مساعد في علوم الحاسوب في جامعة ماساتشوستس أمهرست وكاتب أول للورقة، “إذا استخدمت خوارزمية سيلدوني لمعالجة مرض السكري، يمكنني تحديد السلوك غير المرغوب فيه بمعنى انخفاض السكر في الدم بشكل خطير أو انخفاض السكر في الدم.”
“يمكنني أن أقول للآلة، ‘أثناء محاولة تحسين جهاز التحكم في مضخة الأنسولين، لا تقم بتعديلات تزيد من تكرار انخفاض السكر في الدم.’ معظم الخوارزميات لا توفر لك طريقة لوضع هذا النوع من القيود على السلوك؛ لم يتم تضمينه في التصاميم المبكرة.”
يضيف توماس أن إطار سيلدوني هذا سوف يجعل من السهل على مصممي تعلم الآلة بناء تعليمات لتجنب السلوك في جميع أنواع الخوارزميات، بطريقة تمكنهم من تقييم احتمال أن تعمل الأنظمة المدربة بشكل صحيح في العالم الحقيقي.”
من جانبها، تشير إيما برونسكيل أيضًا إلى أن “التفكير في كيفية إنشاء خوارزميات تحترم أفضل القيم مثل السلامة والعدالة أمر ضروري لأن المجتمع يعتمد بشكل متزايد على الذكاء الاصطناعي.”
