צור קשר

האם עסקים מוכנים לגל הבא של מתקפות סייבר המונעות על ידי בינה מלאכותית?

אבטחת סייבר

האם עסקים מוכנים לגל הבא של מתקפות סייבר המונעות על ידי בינה מלאכותית?

mm

ניתוח מגמות עכשוויות מאפשר למומחים לחזות כיצד פושעי סייבר ימנפו בינה מלאכותית בעתיד. בעזרת מידע זה, הם יכולים לזהות את האיומים המתעוררים הגדולים ביותר ולקבוע האם עסקים מוכנים. ייתכן שהם אף יוכלו לזהות פתרון. 

מצב איומי הבינה המלאכותית בשנים האחרונות

למרות שטכנולוגיית בינה מלאכותית היא חדשה יחסית, היא כבר הפכה לכלי בולט עבור האקרים. מגמות אלו מצביעות על כך שמתקפות סייבר מבוססות בינה מלאכותית נמצאות במגמת עלייה. 

1. שינוי מודל

על ידי מיקוד ישיר במודלים של שפה גדולה (LLMs), גורמי איום יכולים לתמרן את התנהגות המודל, להפחית את דיוק הפלט או לחשוף נתוני אימון המאפשרים זיהוי אישי. הרעלת נתונים והנדסה מהירה הן טכניקות תקיפה נפוצות. 

חלק מההתקפות מובלות על ידי גורמי איום המבקשים לגרום לכאוס או לגנוב מידע רגיש. אחרות מנוהלות על ידי אמנים ממורמרים המעוניינים להגן על יצירות האמנות שלהם מפני גניבה באמצעות בינה מלאכותית. כך או כך, החברה ומשתמשי הקצה שלה מושפעים לרעה.  

2. התקפות התחזות

בשנת 2024, מנהל בכיר בפרארי קיבל מספר הודעות וואטסאפ מהמנכ"ל, בנדטו ויניה. דיברו על רכישה קרובה ודחק בעובד שלו לחתום על הסכם סודיות. הוא אפילו התקשר כדי לדון במימון. הייתה בעיה אחת - זה לא היה הוא.

העיפ-זיוף היה כמעט מושלם, וחיקה בצורה יוצאת דופן את המבטא הדרום-איטלקי של וינייה. עם זאת, סתירות קלות בקול רמזו למנהל על התרמית. העובד שאל על שם הספר שוויניה המליץ ​​עליו ימים קודם לכן, שאלה שרק המנכ"ל האמיתי ידע את התשובה עליה. הנוכל ניתק מיד. 

בינה מלאכותית יכולה לשכפל את קולו של אדם, את התנהגות הגלישה שלו, את סגנון הכתיבה שלו ואת דמותו. ככל שהטכנולוגיה הזו מתקדמת, זיהוי זיופים עמוקים הופך להיות קשה יותר ויותר. הנוכלים לעיתים קרובות מעמידים את המטרה במצב דחוף כדי למנוע ממנה להטיל ספק בסתירות קלות. 

3. פישינג באמצעות בינה מלאכותית

בעבר, אדם היה יכול לזהות הודעת פישינג על ידי חיפוש דקדוק לקוי, קישורים חשודים, ברכות כלליות ובקשות לא במקום. כעת, בעזרת טכנולוגיית עיבוד שפה טבעית, האקרים יכולים ליצור הודעות אמינות עם דקדוק מושלם.

חוקרים גילו כי הודעות דוא"ל אוטומטיות לחלוטין המבוססות על בינה מלאכותית (AI) פיתחו הודעות דוא"ל של ספיר פישינג שיעור קליקים של 54%, אשר דומה להודעות דוא"ל פישינג שנכתבו על ידי בני אדם. מכיוון שהונאות אלו משכנעות יותר, הן הופכות נפוצות יותר ויותר. מחקרים מצאו כי למעלה מ-80% מהודעות הדוא"ל של פישינג מראות עדויות למעורבות של בינה מלאכותית. 

4. הנדסה חברתית

הנדסה חברתית כרוכה במניפולציה של מישהו כדי שיוכל לנקוט פעולה או לחשוף מידע. בינה מלאכותית מאפשרת להאקרים להגיב מהר יותר ולנסח מסרים משכנעים יותר. כל מודל עיבוד שפה טבעית יכול לבצע ניתוח סמנטי כדי לזהות את המצב הרגשי של הנמען, מה שהופך אותו לסביר יותר לוותר. 

בנוסף לשיפור טכניקות הנדסה חברתית, טכנולוגיית למידת מכונה מורידה את חסמי הכניסה המסורתיים, ומאפשרת למתחילים לבצע קמפיינים מתוחכמים. אם כל אחד יכול להפוך לפושע סייבר, כל אחד יכול להפוך למטרה. 

הגל הבא של מתקפות בינה מלאכותית מונחות נתונים

בתחילת 2026, צפוי כי מתקפות בינה מלאכותית יישארו ברמת בגרות נמוכה. עם זאת, הן יתקדמו באופן אקספוננציאלי ככל שהשנה תתקדם, מה שיאפשר לפושעי סייבר להיכנס לשלבי אופטימיזציה, פריסה והרחבה. בקרוב הם יוכלו להשיק קמפיינים אוטומטיים לחלוטין. דוגמאות מאומתות של מתקפות סייבר מבוססות בינה מלאכותית לא יהיו נדירות לאורך זמן. 

תוכנה זדונית פולימורפית היא וירוס המופעל על ידי בינה מלאכותית שיכול לשנות את הקוד שלו בכל פעם שהוא משכפל כדי להימנע מגילוי. תוקפים יכולים להעביר את המטען דרך מערכות אקולוגיות של בינה מלאכותית, לקרוא למערכות LLM בזמן ריצה כדי ליצור פקודות או להטמיע את הווירוס ישירות בתוך ה-LLM. קבוצת מודיעין האיומים של גוגל גילתה יריבים שהציבו את התוכנה הזדונית הזו לראשונה בשנת 2025.  

משפחות התוכנות הזדוניות הן PROMPTFLUX ו-PROMPTSTEAL. במהלך הביצוע, הן משתמשות ב-LLMs כדי לבקש טכניקות ערפול והתחמקות של VBScript. התחמקות מזיהוי מבוסס חתימה על ידי טשטוש הקוד שלהם לפי דרישה. 

ראיות מצביעות על כך שאיומים אלה עדיין נמצאים בשלב הבדיקה - חלק מהתכונות הלא שלמות הוסרו הערות, וקריאות תכנות היישומים מוגבלות. משפחות תוכנות זדוניות צעירות אלה של בינה מלאכותית אולי עדיין נמצאות בפיתוח, אך עצם קיומן מייצג צעד עצום קדימה בכיוון של טכניקות תקיפה אוטונומיות ואדפטיביות. 

מחקר של טנדון של אוניברסיטת ניו יורק מראה שחוקרים במשפטים כבר יכולים לבצע באופן עצמאי התקפות כופר, המכונות Ransomware 3.0. הם יכולים לבצע סיור, לייצר מטענים ולהתאים אישית סחיטה ללא מעורבות אנושית. דורש רק הנחיות בשפה טבעית מוטמע בקובץ הבינארי. המודל מניב וריאנטים פולימורפיים שמתאימים את עצמם לסביבת הביצוע על ידי יצירה דינמית של קוד זדוני בזמן ריצה. 

האם עסקים מוכנים למתקפות בינה מלאכותית?

למרות מיליארדי דולרים בהוצאות על אבטחת סייבר, עסקים פרטיים ממשיכים להיאבק כדי לעמוד בקצב המתפתח של נוף האיומים. טכנולוגיית למידת מכונה עלולה להפוך את תוכנות הגילוי והתגובה הקיימות למיושנות, ולסבך עוד יותר את ההגנה. לא עוזר שרבות מהן אינן עומדות בתקני אבטחה בסיסיים. 

דו"ח הבשלות של DIB בסייבר לשנת 2024 סקר 400 אנשי מקצוע בתחום טכנולוגיית המידע בבסיס התעשייה הביטחונית (DIB) של ארצות הברית. למעלה מ... מחצית מהנשאלים דיווחו כי הם רחוקים שנים מעמידה בתקן CMMC 2.0 (Cybersecurity Maturity Model Certification), למרות שעמידה מקבילה בתקן NIST 800-171 הוסברה בחוזים של משרד ההגנה (DoD) מאז 2016. רבים מדרגים את מצב האבטחה שלהם כטובה בהרבה ממה שהיא בפועל. 

דרישות ה-CMMC החדשות נכנס לתוקף ב-10 בנובמבר, 2025. מעתה והלאה, כל חוזי משרד ההגנה ידרשו רמה מסוימת של עמידה בתקנות CMMC כתנאי להענקת חוזה. הכללים החדשים נועדו לחזק את אבטחת הסייבר של משרד ההגנה האמריקאי, אך האם הם יהיו יעילים בעידן הבינה המלאכותית?

האם בינה מלאכותית הגנתית היא התשובה?

ייתכן שכיבוי אש באש הוא הדרך היחידה להילחם בגל הבלתי נמנע של התקפות בינה מלאכותית. בעזרת בינה מלאכותית הגנתית, ארגונים יכולים להגיב באופן דינמי לאיומים בזמן אמת. עם זאת, גישה זו מגיעה עם פגמי אבטחה משלה - אבטחת המודל מפני שיבוש ידרוש פיקוח וביקורת מתמשכים. 

לפי כתב העת Harvard Business Review, פתרונות קונבנציונליים משאירים עסקים פגיעים למתקפות סייבר מבוססות בינה מלאכותית. כדי להשיג חוסן קיברנטי, עליהם להשתמש בטכנולוגיית למידת מכונה כדי לצפות איומים ולהגיב להם באופן אוטומטי. 

אין תשובה פשוטה לשאלה האם בינה מלאכותית הגנתית היא הפתרון לבעיה זו. האם חברות צריכות להשקיע את משאביהן בפריסת כלי למידת מכונה שלא הוכחו או בהרחבת צוותי טכנולוגיית המידע שלהן? בלתי אפשרי לחזות איזו השקעה תשתלם בטווח הארוך. 

ארגונים גדולים עשויים לראות תשואות משמעותיות עם אבטחת סייבר אוטומטית, בעוד שעסקים קטנים עשויים להתקשות להצדיק את העלות. טכנולוגיית אוטומציה קונבנציונלית אולי תוכל לסגור את הפער במחיר נמוך בהרבה, אך היא לא תוכל להגיב לאיומים דינמיים. 

סטיב דורבין, מנכ"ל פורום אבטחת המידע, קובע כי לאימוץ בינה מלאכותית יש יתרונות משמעותיים, אך גם חסרונות גדולים. לדוגמה, עסקים חווים לעתים קרובות עלייה בהתראות חיוביות שגויות, מה שמבזבז את זמנם של צוותי אבטחה. יתר על כן, הסתמכות יתר על בינה מלאכותית עלולה להוביל לביטחון עצמי מופרז בקרב הצוותים, וכתוצאה מכך לכשלים באבטחה. 

ניווט בנוף האיומים של הבינה המלאכותית

בלתי אפשרי לקבוע את היקף הנוכחות המדויק של בינה מלאכותית בנוף האיומים, שכן תוקפים יכולים להשתמש בה כדי ליצור קוד זדוני או לנסח הודעות דוא"ל פישינג, במקום להשתמש בה בזמן ריצה. פושעי סייבר בודדים וקבוצות איום בחסות מדינה עלולים להשתמש בה בקנה מידה גדול. 

בהתבסס על המידע הזמין, שיבוש מודלים, פישינג מבוסס בינה מלאכותית ותוכנות זדוניות רב-מורפיות יהיו איומי הסייבר הגדולים ביותר של 2026. פושעי סייבר ככל הנראה ימשיכו להשתמש במערכות LLM כדי לייצר, לספק ולהתאים מטענים זדוניים, תוך מיקוד בתעשיות בעלות ערך גבוה כמו פיננסים וכן באנשים רגילים.

זאק איימוס הוא כתב טכנולוגי המתמחה בבינה מלאכותית. הוא גם עורך הכתבות ב ReHack, שם תוכלו לקרוא עוד על עבודותיו.