اتصل بنا للحصول على مزيد من المعلومات

الجميع يرغب في استخدام الذكاء الاصطناعي في إدارة المخاطر، لكن القليل منهم مستعد لذلك.

قاده التفكير

الجميع يرغب في استخدام الذكاء الاصطناعي في إدارة المخاطر، لكن القليل منهم مستعد لذلك.

mm

الجميع يتسابقون لنشر الذكاء الاصطناعي. ولكن في إدارة مخاطر الطرف الثالث (TPRM)، قد يكون هذا السباق هو أكبر خطر على الإطلاق.

يعتمد الذكاء الاصطناعي على بنية منظمة: بيانات دقيقة، وعمليات موحدة، ونتائج متسقة. مع ذلك، تفتقر معظم برامج إدارة مخاطر الطرف الثالث إلى هذه الأسس. بعض المؤسسات لديها قادة متخصصون في إدارة المخاطر، وبرامج محددة، وبيانات رقمية. بينما تدير مؤسسات أخرى المخاطر بشكل غير منظم عبر جداول البيانات ومحركات الأقراص المشتركة. بعضها يعمل تحت رقابة تنظيمية صارمة، في حين أن البعض الآخر يقبل مخاطر أكبر بكثير. لا يوجد برنامجان متطابقان، ولا يزال مستوى نضج هذه البرامج متفاوتاً بشكل كبير بعد 15 عاماً من العمل.

هذا التباين يعني أن تبني الذكاء الاصطناعي في إدارة مخاطر الأطراف الثالثة لن يتحقق بالسرعة أو التوحيد، بل بالانضباط، وهذا الانضباط يبدأ بالواقعية بشأن الوضع الحالي لبرنامجك وأهدافه ومستوى تقبلك للمخاطر.

كيف تعرف ما إذا كان برنامجك جاهزًا للذكاء الاصطناعي

ليست كل المؤسسات مستعدة للذكاء الاصطناعي، وهذا أمر طبيعي. فقد وجدت دراسة حديثة أجراها معهد ماساتشوستس للتكنولوجيا أن 95% من مشاريع الذكاء الاصطناعي العام تفشلووفقاً لشركة غارتنر، 79% من مشتري التكنولوجيا يقولون إنهم يندمون على عملية الشراء الأخيرة لأن المشروع لم يتم التخطيط له بشكل صحيح.

في إدارة مخاطر الطرف الثالث، لا يُعدّ الاستعداد للذكاء الاصطناعي مجرد زر يُضغط عليه، بل هو عملية تطور مستمرة، تعكس مدى تنظيم برنامجك وترابطه وحوكمته. تقع معظم المؤسسات في مكان ما على منحنى النضج الذي يتراوح بين العشوائية والمرونة، ومعرفة موقعك هو الخطوة الأولى نحو استخدام الذكاء الاصطناعي بفعالية ومسؤولية.

في المراحل المبكرة، تعتمد برامج إدارة المخاطر بشكل كبير على العمل اليدوي، والجداول الإلكترونية، والذاكرة المؤسسية، وتوزيع المسؤولية. ويفتقر الأمر إلى منهجية رسمية أو إشراف متسق على مخاطر الأطراف الخارجية. قد تبقى معلومات الموردين حبيسة سلاسل رسائل البريد الإلكتروني أو في أذهان عدد قليل من الأشخاص الرئيسيين، وتسير العملية بسلاسة حتى تتعثر. في هذا السياق، سيواجه الذكاء الاصطناعي صعوبة في التمييز بين المعلومات المضللة والمعلومات المفيدة، وستزيد التكنولوجيا من حدة التناقض بدلاً من القضاء عليه.

مع نضوج البرامج، تبدأ البنية بالتشكل: تصبح إجراءات العمل موحدة، وتُرقمن البيانات، وتتوسع المساءلة لتشمل مختلف الأقسام. هنا، يبدأ الذكاء الاصطناعي بإضافة قيمة حقيقية. لكن حتى البرامج المُحددة جيدًا غالبًا ما تبقى معزولة، مما يحد من الرؤية والفهم.

تتحقق الجاهزية الحقيقية عندما تنهار تلك الحواجز وتصبح الحوكمة مشتركة. تربط البرامج المتكاملة والمرنة البيانات والأتمتة والمساءلة في جميع أنحاء المؤسسة، مما يسمح للذكاء الاصطناعي بإيجاد موطئ قدم له - تحويل المعلومات المنفصلة إلى معلومات ذكية ودعم اتخاذ قرارات أسرع وأكثر شفافية.

من خلال فهم مكانك الحالي، والمكان الذي تريد الذهاب إليه، يمكنك بناء الأساس الذي يحول الذكاء الاصطناعي من مجرد وعد براق إلى قوة مضاعفة حقيقية.

لماذا لا يناسب مقاس واحد الجميع، على الرغم من نضج البرنامج؟

حتى لو كان لدى شركتين برامج مرنة لإدارة المخاطر، فلن تتبعا المسار نفسه لتطبيق الذكاء الاصطناعي، ولن تحققا النتائج نفسها. فكل شركة تدير شبكة مختلفة من الأطراف الخارجية، وتعمل وفق لوائح تنظيمية فريدة، وتتقبل مستويات مختلفة من المخاطر.

تواجه البنوك، على سبيل المثال، متطلبات تنظيمية صارمة فيما يتعلق بخصوصية البيانات وحمايتها ضمن الخدمات التي يقدمها مزودو خدمات التعهيد الخارجي. ويكاد يكون مستوى تحملها للمخاطر المتعلقة بالأخطاء أو الانقطاعات أو الاختراقات معدوماً. في المقابل، قد يقبل مصنّعو السلع الاستهلاكية مخاطر تشغيلية أكبر مقابل المرونة أو السرعة، لكنهم لا يستطيعون تحمل أي اضطرابات تؤثر على مواعيد التسليم الحرجة.

تحدد قدرة كل مؤسسة على تحمل المخاطر مقدار عدم اليقين الذي ترغب في قبوله لتحقيق أهدافها، وفي إدارة مخاطر الطرف الثالث، يتغير هذا الحد باستمرار. ولهذا السبب، نادرًا ما تنجح نماذج الذكاء الاصطناعي الجاهزة. فتطبيق نموذج عام في مجال كهذا يُحدث ثغرات بدلًا من الوضوح، مما يستدعي الحاجة إلى حلول أكثر تخصيصًا وقابلة للتخصيص.

النهج الأمثل للذكاء الاصطناعي هو النهج المعياري. ابدأ بتطبيق الذكاء الاصطناعي حيث تتوفر بيانات قوية وأهداف واضحة، ثم وسّع نطاقه انطلاقًا من ذلك. تشمل حالات الاستخدام الشائعة ما يلي:

  • البحث عن الموردين: استخدم الذكاء الاصطناعي لفرز آلاف الموردين المحتملين، وتحديد الشركاء الأقل مخاطرة والأكثر كفاءة أو الأكثر استدامة لمشروع قادم.
  • التقويم: استخدم الذكاء الاصطناعي لتقييم وثائق الموردين وشهاداتهم وأدلة التدقيق. يمكن للنماذج أن ترصد التناقضات أو الشذوذات التي قد تشير إلى وجود مخاطر، مما يتيح للمحللين التركيز على الأمور الأكثر أهمية.
  • التخطيط لتعزيز القدرة على الصمود: استخدم الذكاء الاصطناعي لمحاكاة الآثار المترتبة على الاضطرابات. كيف ستؤثر العقوبات المفروضة في منطقة ما أو الحظر التنظيمي على مادة معينة على قاعدة التوريد الخاصة بك؟ يستطيع الذكاء الاصطناعي معالجة بيانات التجارة والجغرافيا والتبعية المعقدة لنمذجة النتائج وتعزيز خطط الطوارئ.

تُحقق كل حالة من حالات الاستخدام هذه قيمةً عند تطبيقها بوعي ودعمها من قِبل الحوكمة. إن المؤسسات التي تُحقق نجاحًا حقيقيًا في استخدام الذكاء الاصطناعي في إدارة المخاطر وسلاسل التوريد ليست تلك التي تُكثر من الأتمتة، بل تلك التي تبدأ على نطاق صغير، وتُطبّق الأتمتة بوعي، وتُجري تعديلات مستمرة.

بناء الذكاء الاصطناعي المسؤول في إدارة مخاطر الطرف الثالث

مع بدء المؤسسات بتجربة الذكاء الاصطناعي في إدارة مخاطر الأطراف الثالثة، فإن البرامج الأكثر فعالية توازن بين الابتكار والمساءلة. ينبغي للذكاء الاصطناعي أن يعزز الرقابة، لا أن يحل محلها.

في إدارة مخاطر الأطراف الثالثة، لا يُقاس النجاح فقط بسرعة تقييم المورد، بل بدقة تحديد المخاطر وفعالية تنفيذ الإجراءات التصحيحية. فعندما يفشل مورد أو تتصدر مشكلة تتعلق بالامتثال عناوين الأخبار، لا يسأل أحد عن كفاءة العملية، بل يسألون عن كيفية إدارتها.

ذلك السؤال، "كيف تتم إدارتهايكتسب مفهوم "المسؤولية" زخماً عالمياً سريعاً. ومع تسارع وتيرة تبني الذكاء الاصطناعي، يُعرّف المنظمون في جميع أنحاء العالم معنى "المسؤولية" بطرق مختلفة تماماً. قانون الاتحاد الأوروبي للذكاء الاصطناعي وقد حددت هذه السياسة التوجه من خلال إطار عمل قائم على المخاطر يطالب بالشفافية والمساءلة في الأنظمة عالية المخاطر. في المقابل، تتبع الولايات المتحدة مساراً أكثر لا مركزيةمع التركيز على الابتكار إلى جانب المعايير الطوعية مثل إطار عمل NIST AI لإدارة المخاطر. وتعمل مناطق أخرى، بما في ذلك اليابان والصين والبرازيل، على تطوير نماذجها الخاصة التي تمزج بين حقوق الإنسان والرقابة والأولويات الوطنية في نماذج متميزة لحوكمة الذكاء الاصطناعي.

بالنسبة للمؤسسات العالمية، تُضيف هذه المناهج المتباينة مستويات جديدة من التعقيد. فقد يواجه مورد يعمل في أوروبا التزامات صارمة في مجال الإبلاغ، بينما قد يواجه مورد في الولايات المتحدة توقعات أقل صرامة ولكنها لا تزال قيد التطور. ويُضيف كل تعريف لمفهوم "الذكاء الاصطناعي المسؤول" بُعدًا جديدًا لكيفية تقييم المخاطر ومراقبتها وشرحها.

يحتاج قادة إدارة المخاطر إلى هياكل إشرافية مرنة تتكيف مع تغير اللوائح مع الحفاظ على الشفافية والتحكم. وتُدمج البرامج الأكثر تطوراً الحوكمة مباشرةً في عمليات إدارة مخاطر الطرف الثالث، مما يضمن إمكانية شرح كل قرار مدفوع بالذكاء الاصطناعي وتتبعه والدفاع عنه، بغض النظر عن الاختصاص القضائي.

كيف تبدأ

إن تحويل الذكاء الاصطناعي المسؤول إلى واقع ملموس يتطلب أكثر من مجرد بيانات سياسية. إنه يعني وضع الأسس الصحيحة: بيانات دقيقة، ومساءلة واضحة، وإشراف مستمر. إليكم كيف يبدو ذلك.

  • التوحيد القياسي منذ البداية. قبل البدء بالأتمتة، احرص على إنشاء بيانات نظيفة ومتسقة وعمليات متوافقة. طبّق نهجًا تدريجيًا يدمج الذكاء الاصطناعي خطوة بخطوة في برنامج إدارة المخاطر، مع اختبار كل مرحلة والتحقق من صحتها وتحسينها قبل التوسع. اجعل سلامة البيانات وخصوصيتها وشفافيتها أمورًا أساسية لا تقبل المساومة منذ البداية. فالذكاء الاصطناعي الذي لا يستطيع تفسير منطق عمله، أو الذي يعتمد على مدخلات غير موثقة، يزيد المخاطر بدلًا من الحد منها.
  • ابدأ بخطوات صغيرة وجرّب كثيراً. لا يرتبط النجاح بالسرعة. أطلق مشاريع تجريبية مضبوطة تُطبّق الذكاء الاصطناعي على مشاكل محددة ومفهومة جيدًا. وثّق أداء النماذج، وكيفية اتخاذ القرارات، ومن المسؤول عنها. حدّد التحديات الحرجة التي تحول دون تحقيق معظم مشاريع الذكاء الاصطناعي التوليدي لقيمة تجارية، بما في ذلك جودة البيانات والخصوصية والعقبات التنظيمية، واعمل على التخفيف من حدّتها.
  • احكم دائماً. ينبغي أن يُسهم الذكاء الاصطناعي في استباق الاضطرابات، لا في تفاقمها. تعامل مع الذكاء الاصطناعي كأي نوع آخر من المخاطر. ضع سياسات واضحة ووفر الخبرات الداخلية اللازمة لتقييم كيفية استخدام مؤسستك وأطرافها الخارجية للذكاء الاصطناعي. ومع تطور الأنظمة والقوانين عالميًا، يجب الحفاظ على الشفافية. ينبغي أن يكون قادة إدارة المخاطر قادرين على تتبع كل معلومة مستقاة من الذكاء الاصطناعي إلى مصادر بياناتها ومنطقها، لضمان صمود القرارات أمام تدقيق الجهات التنظيمية ومجالس الإدارة والجمهور على حد سواء.

لا توجد خطة موحدة لتطبيق الذكاء الاصطناعي في إدارة مخاطر الطرف الثالث. فمستوى نضج كل شركة، وبيئتها التنظيمية، وقدرتها على تحمل المخاطر، كلها عوامل تؤثر على كيفية تطبيق الذكاء الاصطناعي وتحقيقه للقيمة المرجوة، ولكن ينبغي تصميم جميع البرامج بوعي وتخطيط دقيقين. يجب أتمتة ما هو جاهز، وتنظيم ما تتم أتمتته، والتكيف باستمرار مع تطور التكنولوجيا والقواعد المتعلقة بها.

يشغل ديف روشر منصب رئيس قسم خدمة العملاء في ارافوحيث يقدم المشورة للمؤسسات العالمية بشأن إدارة مخاطر الأطراف الثالثة والتبني المسؤول للذكاء الاصطناعي. لديه أكثر من 30 عامًا من الخبرة في صناعة برامج المؤسسات، وهو شغوف بمساعدة العملاء على حل مشكلات أعمالهم الحرجة من خلال حلول تدعم نجاحهم على المدى الطويل وأهدافهم الاستراتيجية.