Connect with us

AI ื•ืžื ื™ืขืช ืคืฉื™ืขื” ืคื™ื ื ืกื™ืช: ืœืžื” ื‘ื ืงื™ื ื–ืงื•ืงื™ื ืœื’ื™ืฉื” ืžืื•ื–ื ืช

ืžื ื”ื™ื’ื™ ื“ืขื”

AI ื•ืžื ื™ืขืช ืคืฉื™ืขื” ืคื™ื ื ืกื™ืช: ืœืžื” ื‘ื ืงื™ื ื–ืงื•ืงื™ื ืœื’ื™ืฉื” ืžืื•ื–ื ืช

mm

AI היא מטבע בעל שתי פנים עבור בנקים: בעודה משחררת אפשרויות רבות לפעולות יעילות יותר, היא גם יכולה להציג סיכונים חיצוניים ופנימיים.

פושעים פיננסיים מנצלים את הטכנולוגיה כדי ליצור וידאו דיפפייק, קולות ומסמכים מזויפים שיכולים לעבור את הגילוי של מחשבים ובני אדם, או לשפר את פעילויות התרמית בדוא”ל. בארצות הברית לבדה, צפוי ה-AI היצרני לאצל את ההפסדים מזיוף לקצב גידול שנתי של 32%, ולהגיע ל-40 מיליארד דולר עד 2027, על פי דו”ח של Deloitte.

אולי, אם כן, התגובה מצד הבנקים צריכה להיות לחמש את עצמם עם כלים טובים יותר, תוך ניצול AI ברחבי מניעת פשיעה פיננסית. מוסדות פיננסיים אכן מתחילים ליישם AI במאמצים למניעת פשיעה פיננסית (AFC) – כדי לפקח על עסקאות, ליצור דוחות פעילות חשודה, לאוטומט את גילוי הונאות ועוד. לאלו יש פוטנציאל לאצל את התהליכים בעוד הם מגבירים את הדיוק.

הבעיה היא כאשר בנקים אינם מאזנים את יישום ה-AI עם שיפוט אנושי. ללא אדם בלופ, אימוץ AI יכול להשפיע על ציות, הטיה והסתגלות לאיומים חדשים.

אנו מאמינים בגישה זהירה והיברידית לאימוץ AI במגזר הפיננסי, גישה שתמשיך לדרוש קלט אנושי.

ההבדל בין מערכות AFC מבוססות כללים למערכות AFC המונעות על ידי AI

באופן מסורתי, AFC – ובמיוחד מערכות למניעת הלבנת הון (AML) – פעלו עם כללים קבועים שנקבעו על ידי צוותי ציות בתגובה לרגולציות. במקרה של פיקוח על עסקאות, למשל, כללים אלו מיושמים כדי לסמן עסקאות על בסיס קריטריונים מוגדרים מראש, כגון ספרות עסקאות או גורמי סיכון גאוגרפי.

AI מציגה דרך חדשה לבדיקת סיכוני פשיעה פיננסית. מודלים של למידת מכונה יכולים לשמש לגילוי דפוסים חשודים על בסיס סדרה של מאגרי נתונים המשתנים באופן קבוע. המערכת מנתחת עסקאות, נתונים היסטוריים, התנהגות לקוחות ונתונים הקשורים להקשר כדי לפקח על כל דבר חשוד, תוך כדי למידה במהלך הזמן, ומציעה פיקוח על פשיעה מותאם ויעיל יותר.

אולם, בעוד מערכות מבוססות כללים הן צפויות וניתנות לאימות בקלות, מערכות המונעות על ידי AI מציגות אלמנט “קופסה שחורה” מורכבת בגלל תהליכי קבלת החלטות אופאקיים. קשה יותר לעקוב אחר הנימוקים של מערכת AI לסימון התנהגות מסוימת כחשודה, נוכח המעורבות של כל כך הרבה אלמנטים. זה יכול לגרום ל- AI להגיע למסקנה מסוימת על בסיס קריטריונים מיושנים, או לספק תובנות שגויות מעובדות, מבלי שזה יהיה מיד ברור. זה יכול גם לגרום לבעיות עבור ציות רגולטורי של מוסד פיננסי.

אתגרים רגולטוריים אפשריים

מוסדות פיננסיים חייבים לציית לסטנדרטים רגולטוריים נוקשים, כגון AMLD של האיחוד האירופי ו- חוק הסודיות הבנקאית של ארצות הברית, המחייבים קבלת החלטות ברורה וניתנת לעקיבה. מערכות AI, במיוחד מודלים של למידה עמוקה, יכולים להיות קשים לפרש.

כדי להבטיח אחריות בעת אימוץ AI, בנקים זקוקים לתכנון זהיר, בדיקות מקיפות, מסגרות ציות מיוחדות ופיקוח אנושי. בני אדם יכולים לאמת החלטות אוטומטיות על ידי פרשנות, למשל, של הנימוקים מאחורי עסקה מסומנת, מה שהופך אותה לניתנת להסברה ולהגנה בפני רגולטורים.

מוסדות פיננסיים גם נתונים ללחץ גובר להשתמש ב- Explainable AI (XAI) כדי להפוך החלטות AI-מונעות לבנות לרגולטורים ואודיטורים. XAI הוא תהליך המאפשר לבני אדם להבין את הפלט של מערכת AI ואת תהליך קבלת ההחלטות התחתונה.

שיפוט אנושי נדרש לתמונה הוליסטית

אימוץ AI אינו יכול לגרום לבטלות עם מערכות אוטומטיות. אנליסטים אנושיים מביאים הקשר ושיפוט ש-AI חסר, מאפשרים קבלת החלטות מורכבות במקרים מורכבים או דו-משמעיים, שנותרים חיוניים בחקירות AFC.

בין הסיכונים של תלות ב-AI נמצאים אפשרות של שגיאות (כגון חיוביים כוזבים, שליליים כוזבים) והטיה. AI יכול להיות נתון לחיוביים כוזבים אם המודלים אינם מכוונים היטב, או מאומנים על נתונים מוטים. בעוד בני אדם גם רגישים להטיה, הסיכון הנוסף של AI הוא שקשה לזהות הטיה בתוך המערכת.

בנוסף, מודלי AI פועלים על הנתונים שמוזנים אליהם – הם עלולים לא לתפוס דפוסים חשודים חדשים או נדירים מחוץ למגמות היסטוריות, או המבוססים על תובנות מהעולם האמיתי. החלפה מלאה של מערכות מבוססות כללים ב-AI יכולה להשאיר נקודות עיוור בפיקוח AFC.

במקרים של הטיה, עמימות או חדשנות, AFC זקוק לעין ביקורתית ש-AI אינו יכול לספק. בו-זמנית, אם נסיר את בני האדם מהתהליך, זה יכול לרסן באופן משמעותי את היכולת של צוותים להבין דפוסים בפשיעה פיננסית, לאתר דפוסים ולזהות מגמות חדשות. בתורו, זה יכול להקשות על החזקת מערכות אוטומטיות מעודכנות.

גישה היברידית: שילוב מערכות AFC מבוססות כללים ו-AI

מוסדות פיננסיים יכולים לשלב גישה מבוססת כללים עם כלים AI כדי ליצור מערכת רב-שכבתית שמנצלת את החוזקות של שתי הגישות. מערכת היברידית תעשה את יישום AI יותר מדויק בטווח הארוך, וגמישה יותר בטיפול באיומי פשיעה פיננסית חדשים, מבלי לוותר על שקיפות.

כדי לעשות זאת, מוסדות יכולים לש

ื’ื‘ืจื™ืืœื” ื‘ื•ืกื™ืŸ ื”ื™ื ื”ืžื ื›"ืœื™ืช ืฉืœ ืืจื’ื•ืŸ ืžื ื™ืขืช ืคืฉื™ืขื” ืคื™ื ื ืกื™ืช ื˜ื›ื ื•ืœื•ื’ื™ Trapets, ืžื ื”ื™ื’ ืฉื•ืง ื ื•ืจื“ื™ ืžืื– 2000. ืœื” ืžืขืœ 20 ืฉื ื•ืช ื ื™ืกื™ื•ืŸ ื‘ื”ื’ื“ืœืช ืขืกืงื™ื ื•ื ื™ื”ื•ืœ ืกื™ื›ื•ื ื™ื ื‘ืืจื’ื•ื ื™ื ื›ื•ืœืœ Morgan Stanley ื•-Thomson Reuters.