Connect with us

AI ื ื’ื“ AI: ื”ืžืฆื™ืื•ืช ื”ื—ื“ืฉื” ืฉืœ ืื‘ื˜ื—ืช ืกื™ื™ื‘ืจ

ืžื ื”ื™ื’ื™ ื“ืขื”

AI ื ื’ื“ AI: ื”ืžืฆื™ืื•ืช ื”ื—ื“ืฉื” ืฉืœ ืื‘ื˜ื—ืช ืกื™ื™ื‘ืจ

mm mm

מתקפות סייבר מונעות על ידי AI הגיעו, ומאשרות מה שהיה בעבר רק סיכון תיאורטי, אך מצופה, והן מבשרות עידן חדש בנוף האיומים. עם סוכני AI שיכולים כעת לשגר קמפיינים מורכבים, מקצה לקצה, בדקות, פושעי סייבר יכולים לאתר ולנצל פגיעויות של חברות במהירות מכונה. כללי המשחק השתנו: הגנת הסייבר של אתמול לא יכולה עוד לעמוד בקצב של ההתקפה המונעת על ידי AI של היום.

כאשר AI מגביר את האיומים הסייבר, חברות צריכות להפעיל את יכולות ההגנה מונעות על ידי AI שלהן, כדי לעמוד בקצב, בהיקף ובדיוק. עד עכשיו, אויבי הסייבר עדיין עוקבים אחר טקטיקות, טכניקות ונהלים (TTPs) מוכרים, אך AI מאיצה ומשדרגת את ספר המערכה שלהם. בנוסף, מודלי AI של החברות עצמן הם גם מטרה חדשה, באמצעות הרעלת מודלים והנדסה חברתית באמצעות שפה, מה שדורש מצוותי הסייבר להבטיח את יכולות ה-AI שלהם. לכן, האבטחה צריכה להיות חלק בסיסי באסטרטגיית ה-AI הכוללת של הארגון.

מה מבדיל את המתקפות הסייבר המונעות על ידי AI?

בעולם דיגיטלי שכבר רווי בניסיונות חדירה לסייבר, המחסום לכניסה עבור גורם זדוני הופחת, מה שגורם לא רק לעלייה בכמות, אלא גם במורכבות של המתקפות. מתקפות מונעות על ידי AI יכולות כעת לנצל AI או למידת מכונה (ML) כדי לאוטומט את כל שלבי מחזור המתקפה, מאיסוף מידע ואיסוף מידע ועד לניצול והוצאה של מידע רגיש.

הסתמכות בלעדית על תהליכים וטכנולוגיות אבטחה קיימים, ללא הפעלת אותה טכנולוגיה מתקדמת שאויבים מנצלים, נותנת לאויב יתרון שקשה להתמודד איתו ללא AI הגנתי. ארגונים כבר מוצפים במוניטורינג של סביבת החברה מפני גורמים זדוניים מסורתיים. מתקפות מונעות על ידי AI יחמירו את העייפות מהתראות. זה דורש התפתחות מתהליכים המנוהלים על ידי בני אדם לכוח עבודה היברידי של סייבר, אדם ודיגיטל.

מפה את כל נכסי הדיגיטל

בעולם הנוכחי, הבנת הנקודות הפוטנציאליות לכניסה לסביבת החברה היא משחקים בסיסיים, אך עדיין מחוץ להישגן של חברות רבות. מעבר למערכות ונכסים דיגיטליים, יש צורך במיפוי מקיף של כל הזהויות והגישה בתוך הארגון. זהות דיגיטלית, הקושרת את המאפיינים הפיזיים וההתנהגותיים בחזרה ליחיד, מובנת היטב עם הבקרות הקיימות הדרושות לניהול גישה דיגיטלית.

אולם, הבנת נוף הזהויות הלא-אנושיות (NHIs) ברחבי הארגון היא חיונית לאבטחת נכסים דיגיטליים. הבנת הערך הפוטנציאלי של AI בתוך ארגון משמעותה מתן גישה והרשאה לסוכני AI לבצע תהליכים עסקיים באופן אוטונומי. בדומה לסביבות ענן בתקופת האבטחה הקודמת, זרימות עבודה מונעות על ידי סוכנים של היום מפעילות NHIs בקנה מידה, ודורשות יכולת מתקדמת לנהל ולעקוב אחר מקום בסביבה בהם הם פועלים וכיצד הם משיגים משימות או תפקידים מיועדים.

חברות צריכות להרחיב את ממשל הזהויות על פני מחזור החיים של זהות הסוכן, ולפקח על פעולות הסוכן, בדומה לפיקוח על גישת משתמש אנושי כיום, להתנהגויות סיכון פנימי או פשיטת חשבון מאויבים. ככל שיכולות הסוכנים תיקחנה על עצמן יותר אוטונומיה ועבודה עסקית בעלת חשיבות, הבנת מה נראית זהותם ודפוס הגישה שלהם היא קריטית ליישום הגישה והבקרות הנדרשות להגנה עליהם ועל הארגון מפני התעללות.

נעילת מודלי AI

יכולות AI מבטיחות יעילות ופרודוקטיביות, אך גם את הפוטנציאל להיות מופנות נגד ארגונים. הכנסת AI לכל היבט של פעילות עסקית אינה עוד “נחמד להיות” – זה דרישה להצלחה בנוף התחרותי של היום. לכן, פריסת AI בטוחה היא רכיב הכרחי להגשמה בטוחה של הפוטנציאל העסקי המלא.

המעבר להגנת סייבר מונעת על ידי AI הוא מתהליך מתמשך, בעוד מודלי AI עצמם הפכו למטרות. אויבים עלולים לנסות להרעיל את הנתונים המזינים את המודלים האלה, ולהשפיע עליהם לבצע פעולות בלתי מכוונות, או אפילו לחשוף מידע רגיש.

מתקפות אויב נגד AI יכולות לבוא בצורות שונות, כגון מתקפות הרעלה, מתקפות הזרקת פקודות, ואחרות. כדי להגן על AI מפני תמרון פוטנציאלי, ארגונים צריכים לנצל את פילוסופיית Secure by Design של סוכנות התשתית והאבטחה הקיברנטית (CISA). זה מתחיל עם הנתונים המזינים את אימון המודל. נעילת הקלטים מוקדם בתהליך הפיתוח מקימה את היסוד לפלטים אמינים בפריסה.

הבנת הקלטים הנכנסים לפיתוח המודלים והיכולות היא אפשרית דרך ממשל נתונים מכוון, יחד עם בקרת גישה למודלים עצמם. בקרות ביקורתיות המאפשרות אימות פלטים רצויים באות בצורת בקרת הפסדי נתונים (DLP); אכיפת מדיניות ובטיחות; יישור דרך מקורות מאומתים; ובקרות אישור הדוקות לפעולות בעלות השפעה גבוהה, אודיט, ובדיקות רציפות, כולל בדיקות חדירה של מודלים כדי לחזק אותם.

שילוב AI בפעולות אבטחה

עד עכשיו, החלת AI על הגנת סייבר הייתה טקטית, עם הרבה ארגונים המחברים AI לתהליכים אנושיים, במקום לחשוב אסטרטגית כיצד לבנות תהליכים מונעים על ידי AI. זה כמו לנסות להרכיב מנוע V8 על אופניים. התפתחות הבאה של AI תהיה תכנון תהליכים מהיסוד, עם AI אוטונומי ואוטומציה ילידים בתכנון. שיטות ותהליכי אבטחה בטוחים, כגון גילוי איומים, ציד איומים, והנדסת גילוי, עדיין הם הפריטים הקריטיים החיוניים לאבטחת הארגון בעידן AI.

בנוסף, אוטומציה אינה מושג חדש ייחודי להתפתחות AI; זרימות עבודה ותהליכים של אבטחה הואוטמטו במשך שנים, עם ארגונים בשלים המחזיקים ביכולות אורקסטרציה ואוטומציה מתקדמות. אולם, AI משדרגת את האוטומציה המבוססת כללים הקיימת, ומפתחת אותה הלאה, ומאפשרת זרימות עבודה אוטומטיות דינאמיות, מתאימות, ועשירות הקשר, שיכולות לעזור לטפל במהירות ובגמישות הנדרשות לאיומים החדשים האלה.

מה הבא?

אבטחה צריכה להישאר בראש סדר העדיפויות לעסקים ול-IT, כדי לשמור על נכסים ומשתמשים קריטיים מפני ניצול זדוני. AI בטוחה מעצבה היא צורך, נוכח המהירות בה מודלי AI יכולים להיות מופרסים ולבצע פעולות קריטיות יותר. צוותי אבטחה צריכים לחשוב אסטרטגית על הפיכת תהליכים מהיסוד כדי ליישם יכולות AI חדשות, ולעמוד בקצב במשחק הקט-ו-

Kevin Urbanowicz ื”ื•ื ืขืžื™ืช ื‘- Deloitte & Touche LLP ื•ืžืฉืžืฉ ื›ืžื ื”ืœ ืคืขื™ืœื•ืช ืื‘ื˜ื—ืช ืกื™ื™ื‘ืจ ืฉืœ Deloitte ื‘ืืจืฆื•ืช ื”ื‘ืจื™ืช.

Mark Nicholson is a principal at Deloitte & Touche LLP and serves as Deloitteโ€™s US Cyber AI leader.