ืื ืืืื ืืขื
ืชืจืืืช ืกืืืื AI: ืืืฆื ืืื ืืขืฆืืช ืืช ืืืืืืช ืืืจืืื ืืืช

תרומת ה-AI ויכולתה להשפיע בצורה משמעותית הייתה בעיקר ‘שיח’ במהלך השנים האחרונות, אך עכשו היא הגיעה לכל ארגון, החל משימוש ב-LLMs, זרימי עבודה אוטומטיים, ועד לסוכנים אוטונומיים מלאים. עם זאת, היערכות מהירה ליישום הטכנולוגיה הזו ללא מעקי ביטחון תקינים יכולה להיות הרסנית לארכיטקטורה של הארגון, להציב את התשתית ה-Tech בסיכון, ובסופו של דבר לסכן את היתרון התחרותי. בנוסף, תוכניות AI שאינן מושלמות ומחסור בנתונים מוצקים יכולים לגרום ליותר סיכונים ופגיעויות מאשר יעילות.
זו הסיבה שארגונים צריכים לאמץ וליישם תרבות סיכון AI בשלב בוגר, שמעדיפה פרוטוקולים והליכים על פני רווחים וגמישות. זה לא רק ישפר את עמדת הביטחון הכללית של הארגון, אלא גם יבטיח כי זרימי עבודה של AI יהיו יעילים ומבוססים על נתונים בהקשר. תרבות סיכון AI יעילה אינה מוגדרת רק על ידי טכנולוגיה, אלא על ידי הסינרגיה הפנימית שנוצרת כאשר ה-CISO וראשי המחלקות רואים את אותן הראיות ומדברים בקול אחד.
יצירת תרבות סיכון AI שקופה וניתנת למדידה
כדי לבנות תרבות סיכון AI מוצלחת, CISO ומנהיגי ביטחון צריכים לצייד את הצוותים לפרקטיקה מהירה של שיפוט אתי ולזנוח את הציות העיוור לכשמדובר באינטגרציה של AI. זה מתחיל עם הגדרת האופן שבו תרבות סיכון AI יכולה להיות מסונכרנת עם מטרות עסקיות. הגדרה זו מאפשרת למנהיגים למדוד האם עובדים מאמצים התנהגויות המודעות לסיכונים, משתתפים בדיונים פתוחים, ותורמים לתרבות של ניהול סיכונים פרואקטיבי.
ישנם שלושה גישות מדידה עיקריות שיכולות לקבוע היכן צריכות להיעשות התאמות וכמה יעיל התוכנית: מדידות התנהגות ותגובה לאירועים, זיהוי סיכונים, ומדידות מעורבות ומודעות. מדידות תגובה לאירועים מודדות את יעילותן של תוכניות ביטחון ומדידות התנהגות מנתחות את התנהגות המשתמש לפני, במהלך ואחרי אירוע AI. מדידות זיהוי סיכונים עוקבות אחר איומים פוטנציאליים של AI לפני שהם מתממשים. מדידות מעורבות ומודעות עוקבות אחר יעילות האימון והתנהגות העובדים בהפחתת סיכונים עם יישומים של AI.
מדידות אלו לא רק מתארות את יעילותן של אמצעי ביטחון והגנה כאשר מדובר בפרויקטים של AI, אלא גם חושפות האם עובדים מאמצים התנהגויות המודעות לסיכונים, מרגישים בטוחים לדווח על בעיות, ופועלים באופן פעיל לניהול סיכונים פרואקטיבי. הן עוזרות לזהות היכן קיימת חיכוך, כגון היסוס להעלות חששות או דיונים לא עקביים בנוגע לסיכונים. זה יכול להיעשות רק אם המדידות מתוקשרות בצורה ברורה, על מנת לעזור לעובדים להבין כיצד הם תורמים לשינוי תרבותי גדול יותר בתוך הארגון.
היכן תרבות סיכון AI מתפרקת או מסתעפת
הצלחת מדידות אלו בסופו של יום תלויה באופן שבו מנהיגים ומנהלים מתרגמים אותן להתנהגויות מתמשכות. קביעה האם תרבות יעילה הוטמעה או התפרקה במהלך הזמן היא קריטית בתחילת השקת יוזמה זו, והיא מתחילה עם הנהגה שמייצגת מחויבות מלמעלה.
ניהול ביניים לעיתים קרובות קובע האם הנחיות סיכון מתוגברות או מוחמצות. לדוגמה, מנהלי מוצרים שבונים דרישות ביטחון לתוכניות עבודה עוזרים להטמיע מודעות לסיכונים, בעוד שאלו שמאחרים את זה עד אחרי השקה מתחת לתרבות ההנהגה שנועדה ליצור. חוסר מחויבות מלמעלה, עייפות שינוי ואי יציבות, ויסודות נתונים לא מספיקים יכולים לעצור תרבות סיכון AI לפני שהיא אפילו הוקמה.
תרבות זו לא תשגש אלא אם כן היא נבנית בסביבה שבה עובדים מרגישים בטוחים לדווח על אירועים. מנהיגים ומנהלים צריכים להעדיף יצירת חלל לדיאלוג פתוח ולמידה רציפה. תפקידים צריכים להיות מוגדרים בבירור, אימון מתמשך צריך להינתן, ותקציבים צריכים להיות מוקצים בצורה יעילה.
שנית, ארגון שיש לו תחלופה גבוהה של עובדים או עבר שינויים ארגוניים לאחרונה עלול להתמודד עם תרבות ביטחון שאינה בנויה ביסודותיו. זה יכול להוביל ליוזמות לא עקביות ולעדיפויות לא ברורות עבור עובדים. במקרים אלו, מעקב ביטחון חזק ברמת הרשת, שרואה את כל פעילות ה-AI ותנועת הנתונים לתוך והחוצה מהארגון, הוא גיבוי חיוני לשמירה על ההגנות על הכוונת נגד הזיות והתמרון של AI. עם בסיס התנהגות ברמת הרשת, צוותי ביטחון ו-Tech יכולים במהירות לגלות מתי שירותי AI מנוצלים, או שירותי AI לא מורשים פועלים בתוך סביבתם, ולנקוט פעולה להסרת הסיכון.
לבסוף, הרחבת תרבות סיכון AI דורשת נתונים איכותיים, נקיים ומחוברים שמבטיחים ריבונות נתונים, עקביות וציות לפלטפורמות וכלים של AI. איכות נתונים ירודה יכולה לשחוק את קריאות ה-AI, שבמהלך הזמן תדחוף את המודלים רחוק יותר מהמסלול ותציג פלטים של AI שגויים, לא עקביים ושבורים.
קבלת החלטות דרך תרבות סיכון AI
כאשר הנהגה, יציבות ובגרות נתונים מתבססות, ארגונים יכולים לעבור מתגובות מפוצלות לקבלת החלטות מאוחדות ומושפעות מסיכונים. עם התנאים להרחבה שהוקמו, תרבות סיכון AI הופכת לעדשה דרכה מנהיגים מפרשים אירועים, מעריכים פשרות, ופועלים בהחלטיות.
תרבות סיכון AI חזקה מתומכת על ידי נראות חזקה, עם גישה משותפת לאותן המידעים עבור צוותי ביטחון, צוותי Tech, וכל מחלקות הארגון. כאשר כל הצוותים יכולים לראות את אותן התובנות בזמן אמת, כולל קווי זמן של אירועים, כניסה ויציאה של נתונים, והתנהגות קשורה למשתמשים ספציפיים, יש ראיות מוחשיות יותר לשימוש ב-AI וסיכונים. לדוגמה, אם סוכן AI לא מורשה נמצא בתוך ארגון, כל הצוותים צריכים להיות מסוגלים לראות כיצד הוא עבר את בקרות האבטחה, מהי התנהגות המשתמשים שהתעסקו איתו, ומהי המערכות והמכשירים שהוא גיש. זה מאפשר תהליכים רב-תפקידיים כגון פרוטוקולים משותפים לתגובה לאירועים וסקירות סיכונים רבעוניות בין צוותים, אותות מובהקים של תרבות סיכון AI מוצלחת מעבר לארגון הביטחון.
התוצאה
תרבות סיכון AI מתחילה עם הגדרה ברורה ומדידה, אך מצליחה רק כאשר אמון, שקיפות ואחריות מוטמעים ברחבי הארגון. מחויבות הנהגה, יציבות פעילה, ויסודות נתונים חזקים קובעים האם מודעות לסיכונים מסתעפת להתנהגויות עקביות ומושפעות מסיכונים או מתפרקת תחת לחץ.
כאשר סיכון AI נראה, משותף, ומתורגם לעדיפויות ספציפיות לצוות, הוא הופך למניע לקבלת החלטות טובה יותר, עמידות, ויתרון תחרותי לטווח ארוך.












