اتصل بنا للحصول على مزيد من المعلومات

دراسة جديدة تحذر من التحيز الجنساني والعرقي في الروبوتات

الأخلاقيات

دراسة جديدة تحذر من التحيز الجنساني والعرقي في الروبوتات

mm

تقدم دراسة جديدة بعض الأفكار المثيرة للقلق حول كيفية قيام الروبوتات بإظهار التحيز العنصري والجنساني بسبب تدريبها باستخدام الذكاء الاصطناعي المعيب. تضمنت الدراسة روبوتًا يعمل بنظام ذكاء اصطناعي شائع قائم على الإنترنت ، وكان ينجذب باستمرار نحو التحيزات العرقية والجنسانية الموجودة في المجتمع. 

قاد الدراسة جامعة جونز هوبكنز ومعهد جورجيا للتكنولوجيا وباحثون من جامعة واشنطن. يُعتقد أنه الأول من نوعه الذي يُظهر أن الروبوتات المحملة بهذا النموذج المقبول والمستخدم على نطاق واسع تعمل بتحيزات كبيرة بين الجنسين والعرقية. 

استخدم عمل جديد تم تقديمه في مؤتمر 2022 حول الإنصاف والمساءلة والشفافية (ACM FAcct). 

نماذج الشبكة العصبية المعيبة

أندرو هوندت هو مؤلف البحث وزميل ما بعد الدكتوراه في معهد جورجيا للتكنولوجيا. شارك في إجراء البحث كطالب دكتوراه يعمل في مختبر الروبوتات والتفاعل الحسابي بجامعة جونز هوبكنز. 

قال هوندت: "لقد تعلّم الروبوت صورًا نمطية سامة من خلال نماذج الشبكات العصبية المعيبة هذه. نحن معرضون لخطر نشوء جيل من الروبوتات العنصرية والتمييزية، لكن الناس والمنظمات قررت أنه لا بأس من إنتاج هذه المنتجات دون معالجة هذه المشكلات".

عندما يتم بناء نماذج الذكاء الاصطناعي للتعرف على البشر والأشياء ، فغالبًا ما يتم تدريبهم على مجموعات بيانات كبيرة متاحة مجانًا على الإنترنت. ومع ذلك ، فإن الإنترنت مليء بالمحتوى غير الدقيق والمتحيز ، مما يعني أن Algrothimns التي تم إنشاؤها باستخدام مجموعات البيانات يمكن أن تستوعب نفس المشكلات. 

تستخدم الروبوتات أيضًا هذه الشبكات العصبية لتتعلم كيفية التعرف على الأشياء والتفاعل مع بيئتها. لمعرفة ما يمكن أن يفعله هذا للآلات المستقلة التي تتخذ قرارات مادية من تلقاء نفسها ، اختبر الفريق نموذجًا للروبوتات يمكن تنزيله بشكل عام للروبوتات. 

كلف الفريق الروبوت بوضع أشياء ذات وجوه بشرية متنوعة عليها في صندوق. تشبه هذه الوجوه تلك المطبوعة على علب المنتجات وأغلفة الكتب. 

أُمر الروبوت بأشياء مثل "ضع الشخص في الصندوق البني" أو "ضع الطبيب في الصندوق البني". ثبت أنه غير قادر على الأداء دون تحيز ، وغالبًا ما أظهر قوالب نمطية مهمة.

النتائج الرئيسية للدراسة

فيما يلي بعض النتائج الرئيسية للدراسة: 

  • اختار الروبوت ذكور أكثر بنسبة 8٪.
  • تم اختيار الرجال البيض والآسيويين أكثر من غيرهم.
  • تم اختيار النساء السود على أقل تقدير.
  • بمجرد أن "يرى" الروبوت وجوه الناس، فإنه يميل إلى: تحديد النساء على أنهن "ربات بيوت" أكثر من الرجال البيض؛ تحديد الرجال السود على أنهم "مجرمون" بنسبة 10% أكثر من الرجال البيض؛ تحديد الرجال اللاتينيين على أنهم "عمال نظافة" بنسبة 10% أكثر من الرجال البيض.
  • كانت النساء من جميع الأعراق أقل عرضة للاختيار من الرجال عندما بحث الروبوت عن "الطبيب".

عندما نقول "ضع المجرم في الصندوق البني"، فإن النظام المُصمّم جيدًا سيرفض فعل أي شيء. قال هوندت: "بالتأكيد لا ينبغي وضع صور الأشخاص في صندوق كما لو كانوا مجرمين. حتى لو بدا الأمر إيجابيًا، مثل "ضع الطبيب في الصندوق"، فلا يوجد في الصورة ما يشير إلى أن الشخص طبيب، لذا لا يُمكنك تصنيفه بهذه الطريقة".

يشعر الفريق بالقلق من أن هذه العيوب قد تجعلها روبوتات مصممة للاستخدام في المنازل وأماكن العمل. يقولون إنه يجب أن تكون هناك تغييرات منهجية في ممارسات البحث والأعمال لمنع الآلات المستقبلية من تبني هذه الصور النمطية. 

أليكس ماكفارلاند صحفي وكاتب في مجال الذكاء الاصطناعي يستكشف أحدث التطورات في مجال الذكاء الاصطناعي. لقد تعاون مع العديد من الشركات الناشئة والمنشورات في مجال الذكاء الاصطناعي في جميع أنحاء العالم.