ืื ืืืื ืืขื
ืืืฉืจ AI ืืชืืื ืืืฆืข ืขืกืงืืืช, ืื ื ืืฉื ืืืืจืืืช?

עולם הפיננסים מתקדם לכיוון agentic AI, שם AI לא רק עונה על שאלות אלא גם מבצע רכישות ומנהל משא ומתן בשמכם. כאשר משלבים זאת עם פיננסים בלתי נראים, הבנקאות נעלמת לתוך רקע החיים היומיומיים. זהו קפיצה משמעותית קדימה מהפעלת אפליקציה או מילוי טפסים להחזקת רכב, תוכנות עבודה או ארנק זהות דיגיטלי בטוח המנהל תשלומים והלוואות באופן מיידי ואוטומטי.
זהו הכיוון אליו אנו הולכים – עם השוק הגלובלי ל-AI ענק בשירותים פיננסיים הצפוי לגדול בקצב ממוצע שנתי העולה על 40%, ועוקף 80 מיליארד דולר עד 2034. במספר שנים, נפסיק לבצע בנקאות ונתחיל לפקח על מערכות המנהלות את חיינו הפיננסיים בשמנו. כאשר מערכות AI עוברות מייעוץ לביצוע עסקאות בשמכם, חברות פינטק מוכרחות להתמודד עם שאלה יסודית: כאשר מכונה מקבלת החלטה פיננסית, מי נושא באחריות המשפטית והרגולטורית?
המעבר מסיוע לסוכנות
לפיננסים, שהיה צורך בנוכחות אנושית ברגע העסקה, היה בלתי נתפס לבטוח מכונות עם סוכנות לקבוע אם, מתי וכיצד לבצע עסקה – ללא רגע החלטה הדורש שיקול דעת אנושי.
פיננסים בלתי נראים כבר התפתחו דרך תשלומים מובנים, מינויים אוטומטיים, תשלום בקליק אחד ומסילות בזמן אמת. בנקאות הולכת ונעשית יותר ויותר מובנית בתוך מוצרים מתוך אפליקציות בנקאות. כאשר משלבים זאת עם מערכות סוכנות, מתקבלות יכולות פיננסיות המונעות יעדים, המבינות הקשר, אוספות מידע רלוונטי ברחבי פלטפורמות ומתחילות זרימות עבודה באופן אוטונומי. בקיצור, פיננסים סוכנות מהפכת כוונה אנושית לקבלת החלטות דינאמית ורציפה ללא צורך בקלט אנושי בזמן אמת.
עסקאות, כפי שאנו מכירים אותן, הופכות לתשתית רקע ופחות מישירות.
מהן המשמעויות?
עלייתה של פיננסים סוכנות יכולה להיראות דרך עדשות שליטה, התנהגות ואמון.
שליטה אינה עוד עניין של פתיחת אפליקציות או לחיצה על כפתורים, אלא היא נבלעת בשכבות הבלתי נראות של זהות, תשלומים ומערכות אוטומציה, המנחות כיצד הכסף זורם. היא אינה מופעלת עוד בנקודת העסקה, אלא הרבה קודם, כאשר אנשים מגדירים את העדפותיהם, גבולותיהם, יעדיהם והרשאותיהם. במקום להחליט כל פעם שכסף צריך לזרום, הם מחליטים את הכללים שבהם הוא יכול. המערכת אז מובילה שליטה זו הלאה, מפרשת את הכללים האלה בזמן אמת ופועלת בהתאם.
זה משנה ואפילו מאתגר את הדרך בה משתמשים מפעילים שליטה. בעוד שליטה הייתה פעם נמצאת בפעולה, היא כעת מושכת לכיוון תצורה. אתם לא מנהלים עסקאות, אלא תנאים שבהם עסקאות מותרות לקרות. פיקוח הופך לביקורת והתאמה של תנאים אלה, ולא אישור תשלומים אחד אחרי השני.
עבור חברות פינטק, זה משנה את מקום האחריות. שליטה אינה עוד נמצאת בממשק, אלא בתשתית עצמה. היא נמצאת באיך זהות מאומתת, כיצד הרשאות מתוכננות, כיצד החלטות מתועדות, וכיצד פעולות יכולות להיבדק או להיחזר. שכבות אלה עוצבות כיצד שליטה פיננסית מופעלת בפועל, אפילו אם משתמשים לעולם לא רואים זאת באופן ישיר. בהתאמה, שליטה מופנית לעבר ניתוח מוקדם של הלוגיקה של הסוכן. זה מעביר פיקוח מאישור תשלומים בזמן אמת לניהול ‘פונקציות מטרה’, היעדים הבסיסיים המתוכננים לתוך ה-AI, ומוודא שהכוונה הבסיסית של המכונה נותרת מסונכרנת עם האינטרסים הארוכי-טווח של המשתמש לפני שווה סנט יועבר.
כאשר פעולות פיננסיות נעשות לרקע, הדרך בה אנשים מתייחסים לכספם משתנה גם היא. פחות דברים לנהל, פחות פרומפטים לאישור, ופחות סיבות לבדוק. במהלך הזמן, הרגל של ניהול פעיל של עסקאות עוברת לביקורת תקופתית של כיצד המערכת פועלת. אם תשלומים ללא מזומן עשו עסקאות ללא מאמץ, וחידושים אוטומטיים עשו אותם רציפים, אז מערכות סוכנות עושות אותם אוטונומיים.
מה קורה אז לאמון? כאשר המשתמש מתפתח משגרות קודמות של פיקוח, אמינות המערכת התת-ברירית הופכת להיות ציר האמון. אנשים לא ישפטו עוד שירות על ידי כמה הוא מעבד תשלום באמינות, אלא על ידי כמה הוא יכול להיאמן לקבל החלטות בשמם. משתמשים ירצו לדעת כיצד החלטות מתקבלות, מהו הנתונים שנלקחים בחשבון, מהם הגבולות, ומה קורה כאשר משהו הולך לאיבוד.
מה קורה כאשר משהו הולך לאיבוד?
רוב החוק הפיננסי בנוי סביב הרעיון שבני אדם מתחילים עסקאות באופן מכוון. אבל כאשר רגע הכוונה ורגע הביצוע מופרדים, הנחה זו הופכת לחלשה. עם מערכות אוטונומיות, הפעולה המתחילה הופכת לעקיפה. המשתמש עשוי לאשר סט רחב של כללים, אבל לא עסקה ספציפית. כך שכאשר משהו הולך לאיבוד, ההחלטה המדויקת שהובילה לכך הופכת לקשה לזהות. הרעיון של יוזם חד משמעי, ברור, אינו עומד יותר, ושרשרת הכוונה, ביצוע וסיבתיות שמסגרות משפטיות תמיד הסתמכו עליה, מופרעת.
מערכות סוכנות מציגות פרשנויות אלגוריתמיות של כוונת המשתמש ותוצאות הנובעות מנתונים בזמן אמת ולא מהוראות מפורשות. מה שנראה כעסקה יחידה, עשויה בעצם להיות תוצאה של שיפוטים אוטומטיים רבים המצטברים במהלך הזמן.
זה יוצר אתגרים מעשיים. למשל, סכסוכים הופכים קשים יותר לפתרון, משום שקשה לקבוע האם הבעיה נמצאת בתצורה המקורית של המשתמש, בפרשנות המערכת של כוונה זו, בנתונים עליהם היא סמכה, או בפעולה שביצעה לבסוף. אכיפת הרגולציה הופכת גם היא למורכבת יותר, שכן מסגרות מסורתיות של אישור ואחריות אינן עוברות היטב לקבלת החלטות סוכנות.
עם זאת, מבחינת הרגולטור, המוסד הפיננסי נותר אחראי לכישלונות, הפרות או נזקים שנגרמים דרך מערכות אלה. החוק מתייחס לפעולות AI כאילו הן בוצעו על ידי עובד אנושי. אם AI עושה טעות, החברה נושאת באחריות, במיוחד אם השגיאה נובעת מהגדרה לקויה, תצורה לא נכונה או פיקוח לא מספק. איכות הבטיחות ופיקוח אנושי אינם יכולים להיות מופחתים בפני קבלת החלטות אוטונומית. אם משהו, הם הופכים להיות קריטיים עוד יותר, כדי לוודא שמערכות פועלות כפי שהן אמורות.
זה אומר להיות מוחזק באחריות על החלטות שנעשו על ידי תוכנה שתוכננה לפעול באופן עצמאי, לעיתים קרובות במצבים שאף אדם לא צפה במפורש. שאלות של אחריות, ניתוח, והסברה יעברו משוליים משפטיים למרכז העיצוב. מוסדות פיננסיים יזדקקו למודלים ברורים יותר לעקוב אחר החלטות, לייחס אחריות, ולהוכיח שאפילו פעולות אוטונומיות יכולות להיות מובנות, בוחנות, ומושלות. כדי לגשר על פער האחריות, תעשייה צריכה לאמץ ‘הנחה מוכחשת של תקלה אלגוריתמית’. מסגרת זו מניחה באופן חוקי שאירעה תקלה במערכת, אלא אם כן המוסד הפיננסי יכול לספק רישום ביקורת אי-ניתן לשינוי, המוכיח כי הסוכן דבק בדרכיו המתוכננות בקפידה.
להיות בעל תפקיד בכיר המפקח על כל ‘סוכן’ עוזר לנהל את סיכון של פעולות בלתי מכוונות ומונע משגיאות מלהיהפך לבעיות אמיתיות. זה מבטיח שהחברה נשארת בצד הימני של החוק, בעודה שומרת על אחריות.
מהו הדרך האידיאלית קדימה?
כאשר AI סוכנות נכנס לפיננסים, הממשל חייב להיות מפורש באותה מידה. צוותים משפטיים ותאים של ציות יצטרכו לשחק תפקיד פעיל בעיצוב מסגרות אישור לסוכני AI, הגדרת אחריות בין שותפים, קביעת גבולות חוזיים לפעולות מכונה, וקביעת תקנים של מסמכים המתארים בבירור מי אחראי למה. הסכמה, גם היא, צריכה להתפתח – משתמשים צריכים להבין באופן שקוף מה הם חותמים עליו ומהם הגבולות של סמכות סוכנות.
באופן אידיאלי, זהו עולם שבו הלקוחות נשארים תמיד בשליטה מלאה ותמיד מודעים למה בדיוק סוכן AI שלהם עושה. במקום לסמוך על חוזים ארוכים ומבלבלים שנחתמים פעם אחת, הסכמה הופכת לדינאמית וגראנולרית, ניתנת דרך “אישורים מיקרו” למשימות ספציפיות. אולם, כדי להימנע מסיכון של ‘עייפות התראות’, שבה משתמשים מאשרים התראות באופן אוטומטי ללא קריאה, הסכמה חייבת להיות מחוזקת על ידי ספרי סיכון מוקשחים. אלו פועלים כ’מנגנוני ביטחון’ אוטומטיים, המעצרים כל פעולה לא-דטרמיניסטית או בעלת וריאנס גבוהה, החורגת מפרופיל ההתנהגות ההיסטורי של המשתמש.
למשל, משתמש עשוי לאפשר לסוכן AI שלו “היתר דיגיטלי” לבזבז עד 50 אירו בשמו ליום אחד. כל פעולה מתועדת, יוצרת שרשור ברור המוכיח כי AI נשארת בתוך הגבולות המורשים. אם AI מנסה לבצע משהו לא רגיל או מסוכן, המערכת עוצרת אוטומטית ומבקשת אישור מהיר דרך טביעת אצבע או סריקת פנים, למשל. אישורים מיקרו הופכים מה שיכול היה להיות כאב ראש משפטי לאמצעי בטיחות בזמן אמת – ניצחון למשתמשים ולמוסדות כאחד. משתמשים שומרים על נראות ושליטה, בעוד אוטונומיה של AI פועלת בתוך גבולות ברורים וניתנים לאחריות. נראות זו נשמרת היטב דרך ‘אימות רציף’, שבו שכבה של ‘שומר’ הפועלת במקביל לסוכן AI, אינה מתחילה עסקאות, אך מחזיקה בסמכות מוחלטת לווטו כל פעולה החורגת מגבולות בטיחות מוגדרים מראש, וכך מבטיחה שביטחון מרכזי לאדם נשאר פעיל ולא רק מתועד.
בסופו של דבר, הצלחתה של פיננסים סוכנות תלויה ביכולתה לפעול בבטיחות, באמינות, ובדרך מרכזית לאדם. האתגר טמון בהפיכת מערכת מורכבת ובלתי נראית לדבר שאנשים יכולים לבטוח, להבין, ולהרגיש בשליטה.












