رطم يقترح باحثو الذكاء الاصطناعي وضع مكافآت على الانحياز للذكاء الاصطناعي لجعل الذكاء الاصطناعي أكثر أخلاقية - اتحدوا
اتصل بنا للحصول على مزيد من المعلومات

الأخلاقيات

يقترح باحثو الذكاء الاصطناعي وضع مكافآت على الانحياز للذكاء الاصطناعي لجعل الذكاء الاصطناعي أكثر أخلاقية

mm

تم النشر

 on

أوصى فريق من باحثي الذكاء الاصطناعي من الشركات ومختبرات تطوير الذكاء الاصطناعي مثل Intel و Google Brain و OpenAI باستخدام المكافآت للمساعدة في ضمان الاستخدام الأخلاقي للذكاء الاصطناعي. أصدر فريق الباحثين مؤخرًا عددًا من المقترحات المتعلقة بالاستخدام الأخلاقي للذكاء الاصطناعي ، وتضمنت اقتراحًا بأن مكافأة الأشخاص على اكتشاف التحيزات في الذكاء الاصطناعي يمكن أن تكون طريقة فعالة لجعل الذكاء الاصطناعي أكثر عدلاً.

مثل تقارير VentureBeat، انضم باحثون من مجموعة متنوعة من الشركات في جميع أنحاء الولايات المتحدة وأوروبا لوضع مجموعة من المبادئ التوجيهية الأخلاقية لتطوير الذكاء الاصطناعي ، بالإضافة إلى اقتراحات حول كيفية تلبية الإرشادات. كان أحد الاقتراحات التي قدمها الباحثون هو تقديم مكافآت للمطورين الذين يجدون تحيزًا داخل برامج الذكاء الاصطناعي. وقدم الاقتراح في ورقة بعنوان "نحو تطوير ذكاء اصطناعي جدير بالثقة: آليات دعم المطالبات التي يمكن التحقق منها".

كأمثلة على التحيزات التي يأمل فريق الباحثين في معالجتها ، تم العثور على بيانات وخوارزميات متحيزة في كل شيء من تطبيقات الرعاية الصحية إلى أنظمة التعرف على الوجه التي يستخدمها تطبيق القانون. أحد حالات التحيز هذه هي أداة تقييم المخاطر PATTERN التي استخدمتها وزارة العدل الأمريكية مؤخرًا لفرز السجناء وتحديد أي منهم يمكن إرسالهم إلى منازلهم عند تقليل حجم نزلاء السجون استجابةً لوباء فيروس كورونا.

ممارسة مكافأة المطورين لإيجاد سلوك غير مرغوب فيه في برامج الكمبيوتر هي قديمة، ولكن قد تكون هذه هي المرة الأولى التي يقدم فيها مجلس أخلاقيات الذكاء الاصطناعي الفكرة بجدية كخيار لمكافحة التحيز في الذكاء الاصطناعي. في حين أنه من غير المحتمل أن يكون هناك ما يكفي من مطوري الذكاء الاصطناعي للعثور على تحيزات كافية لضمان الذكاء الاصطناعي بشكل أخلاقي ، إلا أنه سيظل يساعد الشركات على تقليل التحيز العام والتعرف على أنواع التحيز التي تتسرب إلى أنظمة الذكاء الاصطناعي الخاصة بهم.

أوضح مؤلفو الورقة البحثية أن مفهوم bug-bounty يمكن توسيعه ليشمل الذكاء الاصطناعي باستخدام منح التحيز ومكافآت السلامة ، وأن الاستخدام الصحيح لهذه التقنية يمكن أن يؤدي إلى مجموعات بيانات ونماذج موثقة بشكل أفضل. سيعكس التوثيق بشكل أفضل قيود كل من النموذج والبيانات. لاحظ الباحثون أيضًا أنه يمكن تطبيق نفس الفكرة على خصائص أخرى للذكاء الاصطناعي مثل القابلية للتفسير والأمان وحماية الخصوصية.

مع تزايد النقاش حول المبادئ الأخلاقية للذكاء الاصطناعي ، لاحظ الكثيرون أن المبادئ وحدها ليست كافية وأنه يجب اتخاذ إجراءات للحفاظ على الذكاء الاصطناعي أخلاقيًا. لاحظ مؤلفو الورقة أن "اللوائح والقواعد الحالية في الصناعة والأوساط الأكاديمية غير كافية لضمان تطوير مسؤول للذكاء الاصطناعي." المؤسس المشارك لـ Google Brain ورائد صناعة الذكاء الاصطناعي Andrew Ng أيضًا رأى أن المبادئ التوجيهية وحدها تفتقر إلى القدرة على ضمان استخدام الذكاء الاصطناعي بشكل مسؤول وعادل ، قائلاً إن العديد منها بحاجة إلى أن تكون أكثر وضوحًا ولديها أفكار قابلة للتنفيذ.

توصية البحث عن المكافآت المتحيزة لفريق البحث المشترك هي محاولة لتجاوز المبادئ الأخلاقية إلى مجال العمل الأخلاقي. قدم فريق البحث أيضًا عددًا من التوصيات الأخرى التي يمكن أن تحفز العمل الأخلاقي في مجال الذكاء الاصطناعي.

قدم فريق البحث عددًا من التوصيات الأخرى التي يمكن للشركات اتباعها لجعل استخدام الذكاء الاصطناعي أكثر أخلاقية. يقترحون أنه يجب إنشاء قاعدة بيانات مركزية لحوادث الذكاء الاصطناعي ومشاركتها بين مجتمع الذكاء الاصطناعي الأوسع. وبالمثل ، يقترح الباحثون أنه يجب إنشاء مسار تدقيق وأن هذه المسارات يجب أن تحافظ على المعلومات المتعلقة بإنشاء ونشر تطبيقات السلامة الحرجة في منصات الذكاء الاصطناعي.

من أجل الحفاظ على خصوصية الأشخاص، اقترح فريق البحث أنه يجب استخدام التقنيات التي تركز على الخصوصية مثل الاتصالات المشفرة والتعلم الموحد والخصوصية التفاضلية. علاوة على ذلك، اقترح فريق البحث ضرورة إتاحة البدائل مفتوحة المصدر على نطاق واسع، كما يجب فحص نماذج الذكاء الاصطناعي التجارية بشكل مكثف. وأخيرًا، يقترح فريق البحث زيادة التمويل الحكومي حتى يتمكن الباحثون الأكاديميون من التحقق من ادعاءات أداء الأجهزة.