رطم ما هو الذكاء الاصطناعي المسؤول؟ المبادئ والتحديات والفوائد - اتحدوا
اتصل بنا للحصول على مزيد من المعلومات
دروس متقدمة في الذكاء الاصطناعي:

منظمة العفو الدولية 101

ما هو الذكاء الاصطناعي المسؤول؟ المبادئ والتحديات والفوائد

mm
تحديث on
شخص يحمل الكرة بيده وهو يقف في الحقول.

منظمة العفو الدولية المسؤولة (RAI) يشير إلى تصميم ونشر أنظمة الذكاء الاصطناعي التي تتسم بالشفافية وعدم التحيز والمساءلة وتتبع المبادئ التوجيهية الأخلاقية. نظرًا لأن أنظمة الذكاء الاصطناعي أصبحت أكثر قوة وانتشارًا ، فإن ضمان تطويرها بمسؤولية واتباع إرشادات السلامة والأخلاق أمر ضروري.

الصحة والنقل وإدارة الشبكة والمراقبة هي تطبيقات الذكاء الاصطناعي الحرجة للسلامة حيث يمكن أن يكون لفشل النظام عواقب وخيمة. تدرك الشركات الكبرى أن RAI ضروري للتخفيف من مخاطر التكنولوجيا. ومع ذلك ، وفقًا لتقرير MIT Sloan / BCG الذي شمل 1093 مستجيبًا ، 54% من الشركات تفتقر إلى الخبرة والموهبة المسؤولة في مجال الذكاء الاصطناعي.

على الرغم من أن قادة الفكر والمنظمات قد طوروا مبادئ للذكاء الاصطناعي المسؤول ، إلا أن ضمان التطوير المسؤول لأنظمة الذكاء الاصطناعي لا يزال يمثل تحديات. دعنا نستكشف هذه الفكرة بالتفصيل:

5 مبادئ للذكاء الاصطناعي المسؤول

1. عدل

يجب على التقنيين تصميم الإجراءات بحيث تعامل أنظمة الذكاء الاصطناعي جميع الأفراد والمجموعات بإنصاف دون تحيز. ومن ثم ، فإن الإنصاف هو المطلب الأساسي في تطبيقات صنع القرار عالية المخاطر.

عدل يعرف ب:

"دراسة التأثير على المجموعات الديموغرافية المختلفة واختيار واحد من عدة تعريفات رياضية لعدالة المجموعة والتي ستلبي بشكل كاف المجموعة المطلوبة من المتطلبات القانونية والثقافية والأخلاقية."

2. المسائلة

تعني المساءلة أن الأفراد والمنظمات الذين يقومون بتطوير ونشر أنظمة الذكاء الاصطناعي يجب أن يكونوا مسؤولين عن قراراتهم وأفعالهم. يجب أن يضمن الفريق الذي ينشر أنظمة الذكاء الاصطناعي أن نظام الذكاء الاصطناعي الخاص بهم شفاف وقابل للتفسير وقابل للتدقيق ولا يضر المجتمع.

تشمل المساءلة سبعة المكونات:

  1. السياق (الغرض الذي من أجله تتطلب المساءلة)
  2. المدى (موضوع المساءلة)
  3. الوكيل (من هو المسؤول؟)
  4. المنتدى (الذي يجب على الجهة المسؤولة إبلاغه)
  5. المعايير (معايير المساءلة)
  6. العملية (طريقة المساءلة)
  7. الآثار (عواقب المساءلة)

3. شفافية

تعني الشفافية أن السبب وراء اتخاذ القرار في أنظمة الذكاء الاصطناعي واضح ومفهوم. أنظمة الذكاء الاصطناعي الشفافة قابلة للتفسير.

وفقًا قائمة تقييم الذكاء الاصطناعي الجدير بالثقة (ALTAI)، للشفافية ثلاثة عناصر رئيسية:

  1. التتبع (يمكن الوصول إلى البيانات وخطوات المعالجة المسبقة والنموذج)
  2. القابلية للتفسير (السبب وراء اتخاذ القرار / التنبؤ واضح)
  3. الاتصال المفتوح (فيما يتعلق بحدود نظام الذكاء الاصطناعي)

4. خصوصية

الخصوصية هي أحد المبادئ الرئيسية للذكاء الاصطناعي المسؤول. يشير إلى حماية المعلومات الشخصية. يضمن هذا المبدأ أن المعلومات الشخصية للأشخاص يتم جمعها ومعالجتها بموافقة وإبعادها عن أيدي المستائين.

كما ثبت مؤخرًا ، كانت هناك حالة لشركة Clearview ، وهي شركة تصنع نماذج التعرف على الوجه لتطبيق القانون والجامعات. مراقبو البيانات في المملكة المتحدة رفع دعوى قضائية ضد Clearview AI مقابل 7.5 مليون جنيه إسترليني لجمع صور لسكان المملكة المتحدة من وسائل التواصل الاجتماعي دون موافقة لإنشاء قاعدة بيانات تضم 20 مليار صورة.

5. الأمان

يعني الأمن ضمان أن أنظمة الذكاء الاصطناعي آمنة ولا تهدد المجتمع. مثال على تهديد أمن الذكاء الاصطناعي هو هجمات الخصومة. تخدع هذه الهجمات الخبيثة نماذج تعلم الآلة لاتخاذ قرارات غير صحيحة. تعد حماية أنظمة الذكاء الاصطناعي من الهجمات الإلكترونية أمرًا ضروريًا للذكاء الاصطناعي المسؤول.

4 التحديات والمخاطر الرئيسية للذكاء الاصطناعي المسؤول

1 انحياز، نزعة

يمكن أن تؤثر التحيزات البشرية المتعلقة بالعمر والجنس والجنسية والعرق على جمع البيانات ، مما قد يؤدي إلى نماذج ذكاء اصطناعي متحيزة. دراسة وزارة التجارة الأمريكية وجدت أن التعرف على الوجه AI يخطئ في التعرف على الأشخاص الملونين. ومن ثم ، فإن استخدام الذكاء الاصطناعي للتعرف على الوجه في إنفاذ القانون يمكن أن يؤدي إلى اعتقالات غير مشروعة. أيضًا ، يعد إنشاء نماذج ذكاء اصطناعي عادلة أمرًا صعبًا نظرًا لوجودها 21 معلمات مختلفة لتحديدها. إذن ، هناك مقايضة. إن تلبية أحد معايير الذكاء الاصطناعي العادلة يعني التضحية بأخرى.

2. التفسير

تعد إمكانية التفسير تحديًا حاسمًا في تطوير الذكاء الاصطناعي المسؤول. إنه يشير إلى فهم كيفية وصول نموذج التعلم الآلي إلى نتيجة معينة.

تفتقر الشبكات العصبية العميقة إلى القابلية للتفسير لأنها تعمل كصناديق سوداء مع طبقات متعددة من الخلايا العصبية المخفية ، مما يجعل من الصعب فهم عملية اتخاذ القرار. يمكن أن يكون هذا تحديًا في اتخاذ القرارات عالية المخاطر مثل الرعاية الصحية والتمويل وما إلى ذلك.

علاوة على ذلك ، فإن إضفاء الطابع الرسمي على التفسير في نماذج ML يمثل تحديًا لأنه كذلك ذاتي و  خاص بالمجال.

3. الحكم

تشير الحوكمة إلى مجموعة من القواعد والسياسات والإجراءات التي تشرف على تطوير ونشر أنظمة الذكاء الاصطناعي. في الآونة الأخيرة ، كان هناك تقدم كبير في خطاب حوكمة الذكاء الاصطناعي ، حيث قدمت المنظمات الأطر والمبادئ التوجيهية الأخلاقية.

المبادئ التوجيهية لأخلاقيات منظمة العفو الدولية جديرة بالثقة من قبل الاتحاد الأوروبيإطار أخلاقيات الذكاء الاصطناعي الأستراليو مبادئ منظمة التعاون والتنمية في الميدان الاقتصادي للذكاء الاصطناعي هي أمثلة لأطر حوكمة الذكاء الاصطناعي.

لكن التقدم السريع في الذكاء الاصطناعي في السنوات الأخيرة يمكن أن يتفوق على أطر حوكمة الذكاء الاصطناعي هذه. تحقيقًا لهذه الغاية ، يجب أن يكون هناك إطار عمل يقيم عدالة أنظمة الذكاء الاصطناعي وقابليتها للتفسير وأخلاقياتها.

4. اللائحة

مع انتشار أنظمة الذكاء الاصطناعي ، يجب أن يكون هناك تنظيم لمراعاة القيم الأخلاقية والمجتمعية. يعد تطوير اللوائح التنظيمية التي لا تخنق ابتكار الذكاء الاصطناعي تحديًا حاسمًا في الذكاء الاصطناعي المسؤول.

حتى مع اللائحة العامة لحماية البيانات (GDPR) ، وقانون خصوصية المستهلك في كاليفورنيا (CCPA) ، وقانون حماية المعلومات الشخصية (PIPL) كهيئات تنظيمية ، وجد باحثو الذكاء الاصطناعي أن 97% من مواقع الاتحاد الأوروبي لا تمتثل لمتطلبات الإطار القانوني للائحة العامة لحماية البيانات (GDPR).

علاوة على ذلك ، يواجه المشرعون أ تحدي كبير في التوصل إلى توافق في الآراء بشأن تعريف الذكاء الاصطناعي الذي يشمل أنظمة الذكاء الاصطناعي الكلاسيكية وأحدث تطبيقات الذكاء الاصطناعي.

3 الفوائد الرئيسية للذكاء الاصطناعي المسؤول

1. تقليل التحيز

يقلل الذكاء الاصطناعي المسؤول من التحيز في عمليات صنع القرار، ويبني الثقة في أنظمة الذكاء الاصطناعي. يمكن أن يؤدي الحد من التحيز في أنظمة الذكاء الاصطناعي إلى توفير نظام رعاية صحية عادل ومنصف ويقلل من التحيز في أنظمة الذكاء الاصطناعي الخدمات المالية وما إلى ذلك.

2. تعزيز الشفافية

يجعل الذكاء الاصطناعي المسؤول تطبيقات الذكاء الاصطناعي الشفافة التي تبني الثقة في أنظمة الذكاء الاصطناعي. أنظمة الذكاء الاصطناعي الشفافة تقليل مخاطر الخطأ وسوء الاستخدام. تسهل الشفافية المحسّنة تدقيق أنظمة الذكاء الاصطناعي ، وتكسب ثقة أصحاب المصلحة ، ويمكن أن تؤدي إلى أنظمة ذكاء اصطناعي خاضعة للمساءلة.

3. الأمن أفضل

تضمن تطبيقات الذكاء الاصطناعي الآمنة خصوصية البيانات ، وتنتج مخرجات جديرة بالثقة وغير ضارة ، وآمنة من الهجمات الإلكترونية.

عمالقة التكنولوجيا مثل مایکروسافت و  شراء مراجعات جوجل، التي تعد في طليعة تطوير أنظمة الذكاء الاصطناعي ، قد طورت مبادئ الذكاء الاصطناعي المسؤول. يضمن الذكاء الاصطناعي المسؤول ألا يكون الابتكار في الذكاء الاصطناعي ضارًا للأفراد والمجتمع.

يجب على قادة الفكر والباحثين والمنظمات والسلطات القانونية مراجعة أدبيات الذكاء الاصطناعي المسؤولة باستمرار لضمان مستقبل آمن للابتكار في الذكاء الاصطناعي.

لمزيد من المحتوى المتعلق بالذكاء الاصطناعي ، تفضل بزيارة Unite.ai.