בדל AI גנרטיבי באבטחת סייבר: שדה הקרב, האיום ועכשיו ההגנה - Unite.AI
צור קשר

מנהיגי מחשבה

AI גנרטיבי באבטחת סייבר: שדה הקרב, האיום ועכשיו ההגנה

mm

יצא לאור

 on

שדה הקרב

מה שהתחיל כהתרגשות סביב היכולות של AI Generative הפך במהירות לדאגה. כלי בינה מלאכותית גנרטיבית כגון ChatGPT, Google Bard, Dall-E וכו' ממשיכים לעלות לכותרות עקב חששות אבטחה ופרטיות. זה אפילו מוביל לשאלות לגבי מה אמיתי ומה לא. בינה מלאכותית גנרטיבית יכולה לשאוב תוכן סביר מאוד ולכן משכנע. עד כדי כך שבסיומו של קטע 60 דקות אחרון על AI, המארח סקוט פלי השאיר את הצופים עם ההצהרה הזו; "נסיים עם הערה שמעולם לא הופיעה ב-60 דקות, אבל אחת, במהפכת הבינה המלאכותית, אולי אתה שומע לעתים קרובות: הקודמת נוצרה עם 100% תוכן אנושי."

מלחמת הסייבר הגנרטיבית בינה מלאכותית מתחילה עם התוכן המשכנע והמציאותי הזה, ושדה הקרב הוא המקום בו האקרים ממנפים בינה מלאכותית, תוך שימוש בכלים כגון ChatGPT וכו'. זה קל מאוד לפושעי סייבר, במיוחד לאלה עם משאבים מוגבלים ואפס ידע טכני, לבצע את הפשעים שלהם באמצעות הנדסה חברתית, דיוג והתקפות התחזות.

האיום

בינה מלאכותית גנרית יש את הכוח לתדלק התקפות סייבר יותר ויותר מתוחכמות.

מכיוון שהטכנולוגיה יכולה לייצר בקלות תוכן משכנע ודומה לבני אדם, הונאות סייבר חדשות הממנפות AI קשה יותר לצוותי אבטחה לזהות בקלות. הונאות שנוצרו על ידי בינה מלאכותית יכולות לבוא בצורה של התקפות הנדסה חברתית כמו התקפות דיוג מרובות ערוצים המבוצעות באמצעות אימייל ואפליקציות הודעות. דוגמה בעולם האמיתי יכולה להיות דואר אלקטרוני או הודעה המכילים מסמך שנשלח למנהל ארגוני מספק צד שלישי דרך Outlook (אימייל) או Slack (אפליקציית הודעות). האימייל או ההודעה מפנים אותם ללחוץ עליהם כדי להציג חשבונית. עם AI Generative, זה יכול להיות כמעט בלתי אפשרי להבחין בין דוא"ל או הודעה מזויפים לאמיתיים. ובגלל זה זה כל כך מסוכן.

עם זאת, אחת הדוגמאות המדאיגות ביותר היא שעם AI Generative, פושעי סייבר יכולים לייצר התקפות על פני מספר שפות - ללא קשר אם ההאקר אכן דובר את השפה. המטרה היא להטיל רשת רחבה ופושעי סייבר לא יפלו קורבנות על סמך שפה.

ההתקדמות של AI Generative מאותתת שההיקף והיעילות של התקפות אלו ימשיכו לעלות.

ההגנה

הגנת סייבר עבור AI Generative הייתה כידוע החלק החסר בפאזל. עד עכשיו. על ידי שימוש בלחימה במכונה למכונה, או הצמדת בינה מלאכותית נגד בינה מלאכותית, נוכל להתגונן מפני האיום החדש והגדל הזה. אבל איך צריך להגדיר את האסטרטגיה הזו ואיך היא נראית?

ראשית, על התעשייה לפעול כדי להצמיד מחשב מול מחשב במקום אנושי מול מחשב. כדי להמשיך את המאמץ הזה, עלינו לשקול פלטפורמות זיהוי מתקדמות שיכולות לזהות איומים שנוצרו על ידי בינה מלאכותית, לצמצם את הזמן שנדרש לסמן ואת הזמן שלוקח לפתור מתקפת הנדסה חברתית שמקורה ב- Generative AI. משהו שאדם לא מסוגל לעשות.

לאחרונה ערכנו בדיקה כיצד זה יכול להיראות. ביקשנו מ-ChatGPT לבשל הודעת דיוג בהתקשרות חוזרת מבוססת שפה במספר שפות כדי לראות אם פלטפורמת Natural Language Understanding או פלטפורמת זיהוי מתקדמת יוכלו לזהות זאת. נתנו ל-ChatGPT את ההנחיה, "כתוב מייל דחוף שקורא למישהו להתקשר לגבי הודעה סופית על הסכם רישיון תוכנה." כמו כן, ציווינו עליו לכתוב אותו באנגלית וביפנית.

פלטפורמת הזיהוי המתקדמת הצליחה לסמן מיד את המיילים כמתקפת הנדסה חברתית. אבל, בקרות דוא"ל מקוריות כמו פלטפורמת זיהוי הדיוג של Outlook לא יכלו. עוד לפני שחרורו של ChatGPT, הנדסה חברתית שנעשתה באמצעות שיחה מבוססת שפה הוכיחה את עצמה מוצלחת מכיוון שהן יכלו להתחמק מבקרות מסורתיות, לנחות בתיבות דואר נכנס ללא קישור או מטען. אז כן, נדרש קרב מכונה מול מכונה כדי להגן, אבל עלינו גם להיות בטוחים שאנו משתמשים בארטילריה יעילה, כמו פלטפורמת גילוי מתקדמת. לכל מי שעומד לרשותו הכלים הללו יש יתרון במאבק נגד AI Generative.

כשמדובר בקנה המידה והסבירות של התקפות הנדסה חברתית הניתנות על ידי ChatGPT וצורות אחרות של AI Generative, ניתן גם לשפר את ההגנה ממכונה למכונה. לדוגמה, ניתן לפרוס הגנה זו במספר שפות. זה גם לא חייב להיות מוגבל רק לאבטחת דוא"ל אלא יכול לשמש עבור ערוצי תקשורת אחרים כמו אפליקציות כמו Slack, WhatsApp, Teams וכו'.

הישארו ערניים

כשגללתי דרך לינקדאין, אחד העובדים שלנו נתקל בניסיון הנדסה חברתית של AI Generative. מודעת הורדה מוזרה של "נייר לבן" הופיעה עם מה שניתן לתאר רק בנדיבות כקריאייטיב של מודעה "מוזרה". בבדיקה מדוקדקת יותר, העובד ראה תבנית צבע מובהקת בפינה הימנית התחתונה המוטבעת על תמונות שהופקו על ידי Dall-E, מודל בינה מלאכותית שיוצר תמונות מהנחיות מבוססות טקסט.

המפגש עם מודעת LinkedIn המזויפת הזו הייתה תזכורת משמעותית לסכנות הנדסיות חברתיות חדשות המופיעות כעת בשילוב עם AI Generative. זה קריטי מתמיד להיות עירני וחשדן.

עידן הבינה המלאכותית הגנרטיבית המשמשת לפשעי סייבר הגיע, ועלינו להישאר ערניים ולהיות מוכנים להילחם בחזרה עם כל כלי שעומד לרשותנו.

כריס להמן הוא המנכ"ל (CEO) של סייבר סייגארד. כריס הוא מנהל בכיר ותיק עם יותר מ-20 שנות ניסיון בעבודה עבור חברות טכנולוגיה בעלות צמיחה מהגבוהות והמצליחות ביותר בעולם.