Connect with us

الجميع يريدون الذكاء الاصطناعي في إدارة المخاطر. قليلون مستعدون لذلك

قادة الفكر

الجميع يريدون الذكاء الاصطناعي في إدارة المخاطر. قليلون مستعدون لذلك

mm

الجميع يتنافسون في نشر الذكاء الاصطناعي. ولكن في إدارة المخاطر التابعة للطرف الثالث (TPRM)، قد تكون هذه السباق أكبر مخاطر من جميع المخاطر.

يعتمد الذكاء الاصطناعي على البنية: بيانات نظيفة، عمليات معيارية، ونواتج متسقة. ومع ذلك، فإن معظم برامج إدارة المخاطر التابعة للطرف الثالث تفتقر إلى تلك الأسس. بعض المنظمات لديها قادة مخاطر مخصصون، برامج محددة، وبيانات رقمية. بينما تدير منظمات أخرى المخاطر بشكل غير رسمي من خلال جداول البيانات والقرص المشترك. بعضها يعمل تحت رقابة تنظيمية صارمة، في حين أن البعض الآخر يقبل مخاطر أكبر. لا توجد برنامجان متشابهتان، ولا يزال مستوى النضج يختلف على نطاق واسع بعد 15 عامًا من الجهد.

هذا التباين يعني أن تبني الذكاء الاصطناعي في إدارة المخاطر التابعة للطرف الثالث لن يحدث من خلال السرعة أو التماثل. سوف يحدث من خلال الانضباط، وانضباط يبدأ من واقعية حول حالة برنامجك الحالي، وأهدافك، وميولك للمخاطر.

كيف تعرف إذا كان برنامجك جاهزًا للذكاء الاصطناعي

ليس كل منظمة جاهزة للذكاء الاصطناعي، وهذا شيء طبيعي. وجدت دراسة حديثة في معهد ماساتشوستس للتكنولوجيا أن 95% من مشاريع الذكاء الاصطناعي التوليدية فشلت. ووفقًا لشركة جارتنر، 79% من مشتري التكنولوجيا يقولون إنهم يأسفون لشراءهم الأخير لأن المشروع لم يخطط بشكل جيد.

في إدارة المخاطر التابعة للطرف الثالث، ليست جاهزية الذكاء الاصطناعي مفتاحًا تقلبه. إنها تقدم، وتنعكس على مدى بنية برنامجك، وترابطه، وتنظيمه. تقع معظم المنظمات في مكان ما على منحدر النضج الذي يتراوح بين غير الرسمي والمرن، واعرفة مكانك هو الخطوة الأولى نحو استخدام الذكاء الاصطناعي بشكل فعال ومسؤول.

في المراحل الأولى، تكون برامج المخاطر في الغالب يدوية، وتعتمد على جداول البيانات، وذاكرة المؤسسة، وملكية منقسمة. هناك قليل من المنهجية الرسمية أو الإشراف المنتظم على مخاطر الطرف الثالث. قد تعيش معلومات الموردين في سلاسل البريد الإلكتروني أو في رأس عدد قليل من الأشخاص الرئيسيين، والعملية تعمل حتى تفشل. في هذا البيئة، سوف يجد الذكاء الاصطناعي صعوبة في فصل الضوضاء عن الرؤية، وسوف تزيد التكنولوجيا من عدم الاتساق بدلاً من القضاء عليه.

كما تتقدم البرامج، تبدأ البنية في الظهور: تстанدرد عمليات العمل، وتتم رقمية البيانات، وتتوسع المسؤولية عبر الإدارات. هنا، يبدأ الذكاء الاصطناعي في إضافة قيمة حقيقية. ولكن حتى البرامج المحددة جيدًا غالبًا ما تبقى منفصلة، مما يحد من الرؤية والرؤية.

تظهر الجاهزية الحقيقية عندما تنهار السilos وتصبح الحوكمة مشتركة. البرامج المتكاملة والمرنة تربط البيانات، والآلية، والمسؤولية عبر المؤسسة، مما يسمح للذكاء الاصطناعي بالعثور على قدمه — تحويل المعلومات غير المرتبطة إلى استخبارات ودعم اتخاذ القرارات بشكل أسرع وأكثر شفافية.

من خلال فهم مكانك، ومكان تريد أن تذهب إليه، يمكنك بناء الأساس الذي يتحول الذكاء الاصطناعي من وعد لامع إلى مضاعف حقيقي للقوة.

لماذا لا يناسب الحجم الواحد جميع البرامج، على الرغم من نضج البرنامج

حتى لو كانت شركتان لديهما برنامجان مرنان لتحديد المخاطر، لن يتبعان نفس المسار لتنفيذ الذكاء الاصطناعي، ولا سوف يروا نفس النتائج. كل شركة تدير شبكة مختلفة من الأطراف الثالثة، وتعمل تحت لوائح فريدة، وتقبل مستويات مختلفة من المخاطر.

على سبيل المثال، تواجه البنوك متطلبات تنظيمية صارمة حول خصوصية البيانات والحماية داخل الخدمات المقدمة من الموردين. تحمل عتبتها للمخاطر للخطأ أو انقطاع الخدمة أو انتهاك أمني قريب من الصفر. قد تقبل الشركات المصنعة للمنتجات الاستهلاكية مخاطر تشغيلية أكبر في مقابل المرونة أو السرعة، ولكنها لا تستطيع تحمل الانقطاعات التي تؤثر على جداول التسليم الحاسمة.

تحدد تحمل المخاطر لكل منظمة مقدار عدم اليقين الذي هي على استعداد لقبوله لتحقيق أهدافها، وفي إدارة المخاطر التابعة للطرف الثالث، تتحرك هذه الخط باستمرار. هذا هو السبب في أن نماذج الذكاء الاصطناعي الجاهزة نادرًا ما تعمل. تطبيق نموذج عام في مساحة متغيرة بهذا القدر يخلق نقاط عمياء بدلاً من الوضوح — مما يخلق حاجة إلى حلول أكثر تحديدًا وقابلية للتكوين.

النهج الأذكى للذكاء الاصطناعي هو التجزئة. نشر الذكاء الاصطناعي حيث تكون البيانات قوية والأهداف واضحة، ثم توسيعها من هناك. تشمل الحالات الشائعة:

  • بحث الموردين: استخدام الذكاء الاصطناعي لفرز الآلاف من الموردين المحتملين، وتحديد الشركاء ذوي مخاطر منخفضة أو أكثر قدرة أو أكثر استدامة لمشروع قادم.
  • التقييم: تطبيق الذكاء الاصطناعي لتقييم وثائق الموردين والشهادات وأدلة التدقيق. يمكن أن تIGHLIGHT النماذج عدم الاتساق أو الشذوذ التي قد تشير إلى مخاطر، مما يسمح للمحللين بالتركيز على ما يهم أكثر.
  • تخطيط المرونة: استخدام الذكاء الاصطناعي لمحاكاة الآثار المترددة للاضطراب. كيف سوف تؤثر العقوبات في منطقة أو حظر تنظيمي على مادة على قاعدة توريدك؟ يمكن للذكاء الاصطناعي معالجة بيانات التجارة المعقدة والجغرافية والاعتماد لتمثيل النتائج وتعزيز خطط الطوارئ.

كل حالة من هذه الحالات تقدم قيمة عندما يتم نشرها عن قصد ودعم الحوكمة. المنظمات التي ترى نجاحًا حقيقيًا مع الذكاء الاصطناعي في إدارة المخاطر وسلسلة التوريد ليست تلك التي تautomate الأكثر. إنهم الذين يبدؤون ببطء، وينشرون بالنية، ويتكيفون بشكل متكرر.

بناء الذكاء الاصطناعي المسؤول في إدارة المخاطر التابعة للطرف الثالث

كما تبدأ المنظمات في التجربة مع الذكاء الاصطناعي في إدارة المخاطر التابعة للطرف الثالث، تكون البرامج الأكثر فعالية توازن بين الابتكار والمسؤولية. يجب أن يعزز الذكاء الاصطناعي الإشراف، لا يreplaceه.

في إدارة المخاطر التابعة للطرف الثالث، لا يقاس النجاح فقط بسرعة تقييم الموردين؛ بل يقاس بمدى دقة تحديد المخاطر ومدى فعالية تنفيذ الإجراءات التصحيحية. عندما يفشل مورد أو يثير قضية الامتثال للقواعد ضجة، لا أحد يسأل عن كفاءة العملية. يسألون عن كيفية حوكمتها.

هذا السؤال، “كيف يتم حوكمتها“، يصبح سريعًا عالميًا. مع تسارع تبني الذكاء الاصطناعي، يحدد المنظمون حول العالم ما يعني “مسؤول” في طرق مختلفة جدًا. وقد وضع قانون الذكاء الاصطناعي في الاتحاد الأوروبي النغمة مع إطار قائم على المخاطر يطالب بالشفافية والمسؤولية عن الأنظمة عالية المخاطر. في المقابل، الولايات المتحدة تتبع مسارًا أكثر مركزية، مع التركيز على الابتكار جنبًا إلى جنب مع المعايير الطوعية مثل إطار إدارة مخاطر الذكاء الاصطناعي في NIST. المناطق الأخرى، بما في ذلك اليابان والصين والبرازيل، تطور نسختها الخاصة من حوكمة الذكاء الاصطناعي.

للمنظمات العالمية، تroduce هذه المناهج المتنوعة طبقات جديدة من التعقيد. قد يواجه مورد يعمل في أوروبا التزامات تقارير صارمة، في حين أن موردًا في الولايات المتحدة قد يكون له توقعات أقل تطويرًا ولكنها لا تزال تتطور. كل تعريف لـ “الذكاء الاصطناعي المسؤول” يضيف دقة إلى كيفية تقييم المخاطر، ومراقبتها، وشرحها.

يحتاج قادة المخاطر إلى هياكل إشرافية مرنة يمكنها التكيف مع اللوائح المتغيرة مع الحفاظ على الشفافية والسيطرة. البرامج الأكثر تقدمًا تدمج الحوكمة مباشرة في عمليات إدارة المخاطر التابعة للطرف الثالث، مما يضمن أن كل قرار مدفوع بالذكاء الاصطناعي يمكن تفسيره، وتتبعه، والدفاع عنه — بغض النظر عن الولاية القضائية.

كيفية البدء

تحويل الذكاء الاصطناعي المسؤول إلى حقيقة يتطلب أكثر من بيانات السياسة. إنه يعني وضع الأسس الصحيحة في مكانها: بيانات نظيفة، مسؤولية واضحة، وإشراف مستمر. ها هو ما يبدو عليه.

  • معيارية من البداية. إنشاء بيانات نظيفة ومتسقة وعمليات متوافقة قبل التأتمة. تنفيذ نهج مرحلي يدمج الذكاء الاصطناعي خطوة خطوة في برنامج المخاطر، واختبارها، وتصحيحها، وتنقيحها قبل التوسع. جعل سلامة البيانات، والخصوصية، والشفافية غير قابلة للتفاوض من البداية. الذكاء الاصطناعي الذي لا يستطيع تفسير منطقه، أو الذي يعتمد على مدخلات غير مؤكدة، يطرح مخاطر بدلاً من تقليلها.
  • ابداً ببطء وتجربة بشكل متكرر. النجاح ليس مسألة سرعة. إطلاق تجارب محكومة تطبيق الذكاء الاصطناعي على مشاكل محددة جيدًا. توثيق كيفية أداء النماذج، وكيفية اتخاذ القرارات، ومن المسؤول عنها. تحديد والتخفيف من التحديات الحرجة، بما في ذلك جودة البيانات، والخصوصية، والعواقب التنظيمية، التي تمنع معظم مشاريع الذكاء الاصطناعي التوليدي من تقديم قيمة تجارية.
  • دائمًا حوكمة. يجب أن يساعد الذكاء الاصطناعي على توقع الاضطراب، لا على إحداث المزيد منه. عامل الذكاء الاصطناعي كأي شكل آخر من أشكال المخاطر. إنشاء سياسات واضحة وخبرة داخلية لتقييم كيفية استخدام منظمتك والأطراف الثالثة للذكاء الاصطناعي. مع تطور اللوائح حول العالم، يجب أن تظل الشفافية ثابتة. يجب أن يكون قادة المخاطر قادرين على تتبع كل رؤية مدفوعة بالذكاء الاصطناعي إلى مصادر البيانات ومنطقها، مما يضمن أن القرارات تتحمل الصحة تحت رقابة المنظمين، والboards، والجمهور على حد سواء.

لا يوجد خطة عالمية لتنفيذ الذكاء الاصطناعي في إدارة المخاطر التابعة للطرف الثالث. سوف يحدد نضج كل شركة، وبيئتها التنظيمية، وتحمل المخاطر لها كيفية تنفيذ الذكاء الاصطناعي وتقديم القيمة، ولكن جميع البرامج يجب أن تبنى بالنية. تautomate ما هو جاهز، وحوكمة ما هو موحد، وتكيف باستمرار مع تطور التكنولوجيا، والقواعد المحيطة بها.

ديف راشر هو كبير مسؤولي العملاء في Aravo، حيث يُقدم المشورة للمنظمات العالمية في مجال إدارة مخاطر الأطراف الثالثة وتعزيز اعتماد الذكاء الاصطناعي بشكل مسؤول. لديه أكثر من 30 عامًا من الخبرة في صناعة البرمجيات المؤسسية، وهو متحمس لمساعدة العملاء على حل القضايا التجارية الحرجة بالحلول التي تدعم نجاحهم على المدى الطويل والأهداف الاستراتيجية.