رطم كيفية إجراء تدقيق الذكاء الاصطناعي في عام 2023 - Unite.AI
اتصل بنا للحصول على مزيد من المعلومات

الذكاء الاصطناعي

كيفية إجراء تدقيق الذكاء الاصطناعي في عام 2023

mm
تحديث on
التدقيق- ai

يشير تدقيق الذكاء الاصطناعي إلى تقييم أنظمة الذكاء الاصطناعي للتأكد من أنها تعمل كما هو متوقع بدونها انحياز أو التمييز وتتوافق مع المعايير الأخلاقية والقانونية. شهد الذكاء الاصطناعي نموًا هائلاً في العقد الماضي. وبالتالي ، أصبحت المخاطر المتعلقة بالذكاء الاصطناعي مصدر قلق للمنظمات. كما قال إيلون ماسك:

"الذكاء الاصطناعي هو حالة نادرة حيث أعتقد أننا بحاجة إلى أن نكون استباقيين في التنظيم بدلاً من رد الفعل."

يجب على المنظمات تطوير استراتيجيات الحوكمة وتقييم المخاطر والرقابة للموظفين الذين يعملون باستخدام الذكاء الاصطناعي. تصبح مساءلة الذكاء الاصطناعي أمرًا بالغ الأهمية في عملية صنع القرار حيث تكون المخاطر كبيرة مثل نشر الشرطة في منطقة واحدة وليس في منطقة أخرى ، وتوظيف المرشحين ورفضهم.

ستقدم هذه المقالة نظرة عامة على تدقيق الذكاء الاصطناعي ، والأطر واللوائح الخاصة بتدقيق الذكاء الاصطناعي ، وقائمة مراجعة لتدقيق تطبيقات الذكاء الاصطناعي.

العوامل الواجب مراعاتها

  • الامتثال: تقييم المخاطر المتعلقة بامتثال نظام الذكاء الاصطناعي للاعتبارات القانونية والتنظيمية والأخلاقية والاجتماعية.
  • التكنولوجيا: تقييم المخاطر المتعلقة بالقدرات التقنية، بما في ذلك التعلم الآلي ومعايير الأمان وأداء النموذج.

تحديات تدقيق أنظمة الذكاء الاصطناعي

  • التحيز: يمكن لأنظمة الذكاء الاصطناعي تضخيم التحيزات في البيانات التي يتم تدريبهم عليها واتخاذ قرارات غير عادلة. إدراكًا لهذه المشكلة ، تم إطلاق معهد أبحاث مشكلة البحث في جامعة ستانفورد ، وهو منظمة العفو الدولية التي تركز على الإنسان (HAI) تحدي الابتكار 71,000 دولار لتصميم عمليات تدقيق أفضل للذكاء الاصطناعي. كان الهدف من هذا التحدي هو حظر التمييز في أنظمة الذكاء الاصطناعي.
  • التعقيد: أنظمة الذكاء الاصطناعي ، خاصة تلك التي تستخدم التعلم العميق ، معقدة وتفتقر إلى القابلية للتفسير.

اللوائح والأطر الحالية لتدقيق الذكاء الاصطناعي

القوانين والأطر بمثابة نجم الشمال لتدقيق الذكاء الاصطناعي. نناقش أدناه بعض الأطر واللوائح الهامة للتدقيق.

أطر المراجعة

  1. COBIT Framework (أهداف التحكم للمعلومات والتكنولوجيا ذات الصلة): إنه إطار عمل لحوكمة تكنولوجيا المعلومات وإدارة المؤسسة.
  2. إطار تدقيق الذكاء الاصطناعي الخاص بمعهد المدققين الداخليين (IIA): يهدف إطار عمل الذكاء الاصطناعي هذا إلى تقييم تصميم أنظمة الذكاء الاصطناعي وتطويرها وعملها ومواءمتها مع أهداف المؤسسة. ثلاثة مكونات رئيسية لإطار تدقيق الذكاء الاصطناعي الخاص بمعهد المدققين الداخليين (IIA) هي الاستراتيجية والحوكمة والعامل البشري. وتتكون من سبعة عناصر وهي كالتالي:
  • المرونة السيبرانية
  • كفاءات الذكاء الاصطناعي
  • جودة البيانات
  • بنية البيانات والبنية التحتية
  • قياس الأداء
  • الأخلاقيات
  • الصندوق الاسود
  1. إطار COSO ERM: يوفر هذا الإطار إطارًا مرجعيًا لتقييم مخاطر أنظمة الذكاء الاصطناعي في المؤسسة. يتكون من خمسة مكونات للتدقيق الداخلي:
  • البيئة الداخلية: التأكد من أن حوكمة المنظمة وإدارتها تدير مخاطر الذكاء الاصطناعي
  • تحديد الهدف: التعاون مع أصحاب المصلحة لوضع استراتيجية المخاطر
  • تحديد الحدث: تحديد المخاطر في أنظمة الذكاء الاصطناعي مثل التحيزات غير المقصودة وخرق البيانات
  • تقييم المخاطر: ماذا سيكون تأثير المخاطر؟
  • الاستجابة للمخاطر: كيف ستستجيب المنظمة لحالات الخطر ، مثل جودة البيانات دون المستوى الأمثل؟

القوانين

اللائحة العامة لحماية البيانات (GDPR) هي قانون في لوائح الاتحاد الأوروبي تفرض التزامات على المؤسسات لاستخدام البيانات الشخصية. لها سبعة مبادئ:

  • الشرعية والإنصاف والشفافية: يجب أن تلتزم معالجة البيانات الشخصية بالقانون
  • تحديد الغرض: استخدام البيانات لغرض محدد فقط
  • تقليل البيانات إلى الحد الأدنى: يجب أن تكون البيانات الشخصية كافية ومحدودة
  • الدقة: يجب أن تكون البيانات دقيقة وحديثة
  • قيود التخزين: لا تقم بتخزين البيانات الشخصية التي لم تعد مطلوبة
  • النزاهة والسرية: كانت البيانات الشخصية تُعالج بشكل آمن
  • المسؤولية: المراقب لمعالجة البيانات بمسؤولية بعد الامتثال

تشمل اللوائح الأخرى CCPA و بيبيدا.

قائمة مراجعة لتدقيق الذكاء الاصطناعي

مصادر البيانات

يعد تحديد مصادر البيانات وفحصها الاعتبار الأساسي في تدقيق أنظمة الذكاء الاصطناعي. يتحقق المدققون من جودة البيانات وما إذا كان بإمكان الشركة استخدام البيانات.

عبر المصادقة

يعد ضمان التحقق من صحة النموذج بشكل مناسب أحد قوائم المراجعة الخاصة بالمراجعين. لا ينبغي استخدام بيانات التحقق للتدريب ، ويجب أن تضمن تقنيات التحقق إمكانية تعميم النموذج.

استضافة آمنة

في بعض الحالات ، تستخدم أنظمة الذكاء الاصطناعي البيانات الشخصية. من المهم تقييم أن خدمات الاستضافة أو السحابة تفي بمتطلبات أمن المعلومات مثل إرشادات OWASP (مشروع أمان تطبيق الويب المفتوح).

شرح منظمة العفو الدولية

شرح منظمة العفو الدولية يشير إلى تفسير وفهم القرارات التي يتخذها نظام الذكاء الاصطناعي والعوامل التي تؤثر عليه. يتحقق المدققون مما إذا كانت النماذج قابلة للتفسير بشكل كافٍ باستخدام تقنيات مثل LIME و SHAP.

مخرجات النموذج

الإنصاف هو أول شيء يضمنه المدققون في مخرجات النموذج. يجب أن تظل مخرجات النموذج متسقة عند تغيير متغيرات مثل الجنس أو العرق أو الدين. علاوة على ذلك ، يتم أيضًا تقييم جودة التنبؤات باستخدام طريقة التسجيل المناسبة.

ردود الفعل الاجتماعية

تدقيق الذكاء الاصطناعي هو عملية مستمرة. بمجرد نشره ، يجب أن يرى المدققون التأثير الاجتماعي لنظام الذكاء الاصطناعي. يجب تعديل نظام الذكاء الاصطناعي واستراتيجية المخاطر وتدقيقهما وفقًا لذلك بناءً على الملاحظات والاستخدام والعواقب والتأثير ، سواء كان إيجابيًا أو سلبيًا.

الشركات التي تقوم بتدقيق خطوط أنابيب وتطبيقات الذكاء الاصطناعي

خمس شركات كبرى تقوم بتدقيق الذكاء الاصطناعي هي كما يلي:

  • ديلويت: ديلويت هي أكبر شركة خدمات مهنية في العالم وتقدم خدمات تتعلق بالتدقيق والضرائب والاستشارات المالية. تستخدم Deloitte تقنية RPA والذكاء الاصطناعي والتحليلات لمساعدة المؤسسات في تقييم المخاطر لأنظمة الذكاء الاصطناعي الخاصة بها.
  • برايس ووترهاوس كوبرز: تعد برايس ووترهاوس كوبرز ثاني أكبر شبكة خدمات مهنية من حيث الإيرادات. لقد طوروا منهجيات تدقيق لمساعدة المؤسسات على ضمان المساءلة والموثوقية والشفافية.
  • EY: في عام 2022 ، EY أعلنت عن استثمار 1 مليار دولار في منصة تقنية تدعم الذكاء الاصطناعي لتقديم خدمات تدقيق عالية الجودة. الشركات التي تعتمد على الذكاء الاصطناعي على دراية جيدة بتدقيق أنظمة الذكاء الاصطناعي.
  • KPMG: KPMG هي رابع أكبر شركة تقدم خدمات محاسبية. تقدم KPMG خدمات مخصصة في حوكمة الذكاء الاصطناعي وتقييم المخاطر والضوابط.
  • Grant Thronton: إنها تساعد العملاء على إدارة المخاطر المتعلقة بنشر الذكاء الاصطناعي والامتثال لأخلاقيات ولوائح الذكاء الاصطناعي.

فوائد تدقيق أنظمة الذكاء الاصطناعي

  • إدارة المخاطر: التدقيق يمنع أو يخفف من المخاطر المرتبطة بأنظمة الذكاء الاصطناعي.
  • الشفافية: يضمن التدقيق خلو تطبيقات الذكاء الاصطناعي من التحيز والتمييز.
  • الامتثال: تدقيق تطبيقات الذكاء الاصطناعي يعني أن النظام يتبع الامتثال القانوني والتنظيمي.

تدقيق الذكاء الاصطناعي: ما يحمله المستقبل

يجب على المنظمات والسلطات التنظيمية والمدققين البقاء على اتصال بتطورات الذكاء الاصطناعي ، وإدراك التهديدات المحتملة ، ومراجعة اللوائح والأطر والاستراتيجيات بشكل متكرر لضمان الاستخدام العادل والخالي من المخاطر والأخلاق.

في عام 2021 ، بلغ عدد الدول الأعضاء في جمهورية أفريقيا الوسطى 193 دولة اليونسكو اتفاقية عالمية بشأن أخلاقيات الذكاء الاصطناعي. الذكاء الاصطناعي هو نظام بيئي دائم التطور.

هل تريد المزيد من المحتوى المرتبط بالذكاء الاصطناعي؟ يزور Unite.ai.