Connect with us

الذكاء الاصطناعي ومنع الجرائم المالية: لماذا تحتاج البنوك إلى نهج متوازن

قادة الفكر

الذكاء الاصطناعي ومنع الجرائم المالية: لماذا تحتاج البنوك إلى نهج متوازن

mm

الذكاء الاصطناعي هو عملة ذات وجهين للبنوك: بينما يفتح العديد من الإمكانيات لعمليات أكثر كفاءة، يمكن أن يشكل أيضًا مخاطر خارجية وداخلية.

يستخدم المجرمون الماليون التكنولوجيا لإنتاج فيديوهات ديبفيك وأصوات ووثائق مزيفة يمكن أن تخترق الكمبيوتر والكشف البشري، أو تعزيز أنشطة الاحتيال عبر البريد الإلكتروني. في الولايات المتحدة وحدها، من المتوقع أن تسهم الذكاء الاصطناعي في تسريع خسائر الاحتيال بنسبة نمو سنوية تبلغ 32٪، لتصل إلى 40 مليار دولار أمريكي بحلول عام 2027، وفقًا لتقرير حديث من ديلويت.

ربما، ثم، يجب على البنوك أن تساعد نفسها بأدوات أفضل، واستخدام الذكاء الاصطناعي عبر منع الجرائم المالية. بدأت المؤسسات المالية في نشر الذكاء الاصطناعي في جهود مكافحة الجرائم المالية (AFC) – لمراقبة المعاملات، وتوليد تقارير عن النشاط المشبوه، وتحسين كشف الاحتيال وأكثر. لهذه الإمكانية لتسريع العمليات مع زيادة الدقة.

المشكلة هي عندما لا توازن البنوك تنفيذ الذكاء الاصطناعي مع الحكم البشري. بدون وجود بشري في الحلقة، يمكن أن يؤثر تبني الذكاء الاصطناعي على الامتثال والتحيز والتعرف على التهديدات الجديدة.

نحن نؤمن بمقاربة محتاطة، هجينة لتبني الذكاء الاصطناعي في القطاع المالي، والتي ستظل تتطلب مدخلات بشرية.

الفرق بين أنظمة AFC القائمة على القواعد والمدفوعة بالذكاء الاصطناعي

تعمل أنظمة AFC – وعلى وجه الخصوص أنظمة مكافحة غسيل الأموال (AML) – تقليديًا مع قواعد محددة من قبل فرق الامتثال استجابة لللوائح. في حالة مراقبة المعاملات، على سبيل المثال، يتم تنفيذ هذه القواعد لتسليط الضوء على المعاملات بناءً على معايير محددة مسبقًا، مثل عتبات مقدار المعاملة أو عوامل الخطر الجغرافي.

يقدم الذكاء الاصطناعي طريقة جديدة لفحص مخاطر الجرائم المالية. يمكن استخدام نماذج التعلم الآلي لاكتشاف أنماط مشبوهة بناءً على سلسلة من مجموعات البيانات التي تتطور باستمرار. يقوم النظام بتحليل المعاملات والبيانات التاريخية وسلوك العملاء والبيانات السياقية لمراقبة أي شيء مشبوه، مع التعلم مع مرور الوقت، ويوفر مراقبة الجرائم التكيفية والأكثر فعالية المحتملة.

然而، بينما أنظمة القواعد القائمة قابلة للتنبؤ وسهلة التدقيق، فإن الأنظمة المدفوعة بالذكاء الاصطناعي تقدم عنصر “صندوق أسود” معقد بسبب عمليات اتخاذ القرار غير الشفافة. من الصعب تتبع سبب نظام الذكاء الاصطناعي لتحديد سلوك معين على أنه مشبوه، بالنظر إلى أن هناك العديد من العناصر المشاركة. يمكن أن يؤدي هذا إلى أن يصل الذكاء الاصطناعي إلى استنتاج معين بناءً على معايير قديمة، أو تقديم رؤى خاطئة من الناحية الفعلية، دون أن يكون ذلك فورياً قابلاً للكشف. يمكن أن يسبب أيضًا مشاكل لامتثال المؤسسة المالية لللوائح.

التحديات التنظيمية المحتملة

يجب على المؤسسات المالية الامتثال للمعايير التنظيمية الصارمة، مثل توجيه الامر الأوروبي لمكافحة غسيل الأموال و قانون سرية البنوك في الولايات المتحدة، والتي تتطلب اتخاذ القرارات الواضحة والقابلة للتتبع. يمكن أن يكون نظام الذكاء الاصطناعي، خاصة نماذج التعلم العميق، صعبًا في التفسير.

لضمان المساءلة أثناء تبني الذكاء الاصطناعي، تحتاج البنوك إلى التخطيط بعناية، والاختبار الشامل، والإطارات التنظيمية المتخصصة والرقابة البشرية. يمكن للبشر التحقق من القرارات الآلية، على سبيل المثال، من خلال تفسير سبب معاملة معينة تم وضع علامة عليها، مما يجعله مبررًا وقابلًا للدفاع عنه أمام اللوائح.

تخضع المؤسسات المالية أيضًا لضغوط متزايدة لاستخدام أدوات الذكاء الاصطناعي القابل للشرح (XAI) لجعل القرارات التي يديرها الذكاء الاصطناعي مفهومة للمشرفين والمدققين. XAI هو عملية تمكن البشر من فهم مخرجات نظام الذكاء الاصطناعي وعمليات اتخاذ القرار الأساسية.

الحكم البشري مطلوب لرؤية شاملة

لا يمكن أن يؤدي تبني الذكاء الاصطناعي إلى الرضا مع الأنظمة الآلية. يقدم المحللون البشر السياق والحكم الذي يفتقر إليه الذكاء الاصطناعي، مما يسمح باتخاذ القرارات الدقيقة في الحالات المعقدة أو الغامضة، والتي لا تزال أساسية في تحقيقات AFC.

من بين مخاطر الاعتماد على الذكاء الاصطناعي هناك إمكانية الأخطاء (مثل الإيجابيات الكاذبة، السلبيات الكاذبة) والتحيز. يمكن أن يكون الذكاء الاصطناعي عرضة للإيجابيات الكاذبة إذا لم يتم调يم النماذج جيدًا، أو تم تدريبها على بيانات متحيزة. بينما البشر أيضًا عرضة للتحيز، فإن خطر إضافي للذكاء الاصطناعي هو أنه يمكن أن يكون من الصعب تحديد التحيز داخل النظام.

علاوة على ذلك، تعمل نماذج الذكاء الاصطناعي على البيانات التي يتم إطعامها – قد لا تكتشف أنماطًا مشبوهة جديدة أو نادرة خارج الاتجاهات التاريخية، أو بناءً على رؤى العالم الحقيقي. يمكن أن يؤدي استبدال الأنظمة القائمة على القواعد بالكامل بنظام الذكاء الاصطناعي إلى ترك نقاط عمياء في مراقبة AFC.

في حالات التحيز أو الغموض أو النovelty، تحتاج AFC إلى عين تمييزية لا يمكن أن يوفرها الذكاء الاصطناعي. في الوقت نفسه، إذا كنا نزيل البشر من العملية، يمكن أن يؤدي ذلك إلى إعاقة قدرة فرقك على فهم الأنماط في الجرائم المالية، واكتشاف الأنماط، وتحديد الاتجاهات الناشئة. يمكن أن يجعله ذلك أكثر صعوبة في الحفاظ على الأنظمة الآلية محدثة.

نهج هجين: الجمع بين AFC القائم على القواعد والمدفوع بالذكاء الاصطناعي

يمكن للمؤسسات المالية الجمع بين نهج قائم على القواعد وأدوات الذكاء الاصطناعي لإنشاء نظام متعدد الطبقات ي tậnظف من نقاط قوة كل نهج. سوف يجعل نظام هجين من تطبيق الذكاء الاصطناعي أكثر دقة في المدي الطويل، وأكثر مرونة في معالجة التهديدات الناشئة لجرائم المال، دون التضحية بالشفافية.

لتحقيق ذلك، يمكن للمؤسسات دمج نماذج الذكاء الاصطناعي مع ملاحظات بشرية مستمرة. سوف ينمو التعلم التكيفي للنماذج ليس فقط بناءً على أنماط البيانات، ولكن أيضًا على مدخلات بشرية ترفع وتوازنها.

ليس جميع أنظمة الذكاء الاصطناعي متساوية. يجب أن تخضع نماذج الذكاء الاصطناعي للاختبار المستمر لتقييم الدقة والإنصاف والامتثال، مع تحديثات منتظمة بناءً على التغييرات التنظيمية والتهديدات الجديدة كما تم تحديدها من قبل فرق AFC.

يجب على خبراء المخاطر والامتثال أن يخضعوا للتدريب على الذكاء الاصطناعي، أو يجب توظيف خبير في الذكاء الاصطناعي في الفريق، لضمان أن يتم تنفيذ تطوير وتطبيق الذكاء الاصطناعي داخل حواجز معينة. يجب عليهم أيضًا تطوير إطارات امتثال خاصة بالذكاء الاصطناعي، مما يؤسس لمسار الامتثال للوائح في قطاع صاعد لخبراء الامتثال.

كجزء من تبني الذكاء الاصطناعي، من المهم أن يتم إطلاع جميع عناصر المنظمة على قدرات نماذج الذكاء الاصطناعي الجديدة التي يعملون معها، ولكن أيضًا على عيوبها (مثل التحيز المحتمل)، من أجل جعلها أكثر قدرة على الكشف عن الأخطاء المحتملة.

يجب على منظمتك أيضًا اتخاذ بعض الاعتبارات الاستراتيجية الأخرى للحفاظ على الأمان وجودة البيانات. من الضروري الاستثمار في بنية تحتية للبيانات آمنة وعالية الجودة، وضمان أن يتم تدريبها على مجموعات بيانات دقيقة ومتنوعة.

الذكاء الاصطناعي هو وسيلة دفاعية وتهديدية للبنوك. لكنهم بحاجة إلى التعامل مع هذه التكنولوجيا الجديدة القوية بشكل صحيح لمنع创ة مشاكل بدلاً من حلها.

Gabriella Bussien هي المدير التنفيذي في منظمة منع الجرائم المالية التي تعتمد على التكنولوجيا Trapets، وهي منظمات السوق الرائدة في النورد منذ عام 2000. لديها أكثر من 20 عامًا من الخبرة في توسيع نطاق الأعمال وإدارة المخاطر في المنظمات بما في ذلك Morgan Stanley و Thomson Reuters.