Кібербезпека
Генеративний AI в кібербезпеці: Поле битви, Загроза та Тепер Захист

Поле битви
Що почалося як захоплення можливостями Генеративного AI, швидко перетворилося на занепокоєння. Генеративні інструменти AI, такі як ChatGPT, Google Bard, Dall-E тощо, продовжують бути в центрі уваги через проблеми безпеки та конфіденційності. Це навіть призводить до питань про те, що є реальним, а що ні. Генеративний AI може створювати дуже правдоподібний і переконливий контент. Такий контент може бути настільки переконливим, що в кінці недавнього сегмента 60 Minutes про AI, ведучий Скотт Пеллі залишив глядачів з таким висловом: “Ми закінчимо нотою, яка ніколи не з’являлася на 60 Minutes, але одна, в революції AI, ви можете чути часто: попереднє було створено з 100% людським контентом.”
Генеративна війна AI починається з цього переконливого та реального контенту, а поле битви – це місце, де хакери використовують Генеративний AI, використовуючи інструменти, такі як ChatGPT тощо. Це дуже легко для кіберзлочинців, особливо тих, хто має обмежені ресурси та відсутність технічних знань, здійснювати свої злочини через соціальну інженерію, фішинг та атаки на особистість.
Загроза
Генеративний AI має силу підживлювати все більш складні кібератаки.
Через те, що технологія може створювати переконливий і людський контент з легкістю, нові кібер-атаки, що використовують AI, є більш складними для виявлення командами безпеки. Атаки, створені AI, можуть приймати форму соціальної інженерії, таких як багатоканальні фішингові атаки, проведені через електронну пошту та програми повідомлень. Реальний приклад міг би бути електронним листом або повідомленням, що містить документ, надісланий корпоративному виконавцю від третього постачальника через Outlook (Електронна пошта) або Slack (Програма повідомлень). Електронний лист або повідомлення направляє їх натиснути на нього, щоб переглянути рахунок. З Генеративним AI, це може бути майже неможливо відрізнити фальшивий і справжній електронний лист або повідомлення. Це й робить його так небезпечним.
Одним з найбільш тривожних прикладів, однак, є те, що з Генеративним AI, кіберзлочинці можуть створювати атаки на декілька мов – незалежно від того, чи говорить хакер цією мовою. Метою є закинути широку сітку, і кіберзлочинці не будуть дискримінувати жертв на основі мови.
Розробка Генеративного AI свідчить про те, що масштаб і ефективність цих атак продовжуватимуть зростати.
Захист
Кіберзахист для Генеративного AI довгий час був відсутнім. До сьогодні. Використовуючи боротьбу машини з машиною, або протиставляючи AI до AI, ми можемо захиститися від цієї нової та зростаючої загрози. Але як повинна бути визначена ця стратегія та яким вона є?
По-перше, галузь повинна діяти, протиставляючи комп’ютер до комп’ютера, а не людину до комп’ютера. Для реалізації цього зусилля нам потрібно розглянути передові платформи виявлення, які можуть виявляти загрози, створені AI, зменшувати час, необхідний для підняття та часу, необхідного для вирішення соціальної інженерії, що походила з Генеративного AI. Це щось, чого людина не може зробити.
Ми нещодавно провели тест, щоб побачити, як це може виглядати. Ми попросили ChatGPT створити мовний callback-фішинговий електронний лист кількома мовами, щоб побачити, чи може платформа розуміння природньої мови або передова платформа виявлення виявити це. Ми дали ChatGPT提示, “написати терміновий електронний лист, який закликає когось зателефонувати про остатнє повідомлення про угоду про ліцензію на програмне забезпечення.” Ми також наказали йому написати це англійською та японською мовами.
Передова платформа виявлення могла негайно позначити електронні листи як соціальну інженерію. АЛЕ, рідні електронні засоби контролю, такі як платформа виявлення фішингу Outlook, не могли. Навіть до виходу ChatGPT соціальна інженерія, здійснена через розмовні, мовні атаки, довела свою ефективність, оскільки вони могли уникнути традиційних засобів контролю, приземлившись у скриньках без посилання або вантажу. Так, це потрібно для боротьби машини з машиною, щоб захиститися, але нам також потрібно бути впевненими, що ми використовуємо ефективну артилерію, таку як передова платформа виявлення. Хтось, хто має ці інструменти в своєму розпорядженні, має перевагу в боротьбі проти Генеративного AI.
Коли мова йде про масштаб і правдоподібність соціальної інженерії, надану ChatGPT та іншими формами Генеративного AI, захист машини від машини також може бути доопрацьований. Наприклад, цей захист може бути розгорнутий кількома мовами. Це також не обмежується лише електронною безпекою, але може бути використано для інших каналів зв’язку, таких як додатки, як Slack, WhatsApp, Teams тощо.
Залишайтеся Готовими
Коли ми прокручуємо LinkedIn, один з наших працівників натрапив на спробу соціальної інженерії Генеративного AI. З’явилася дивна “біла книга” реклама з тим, що можна назвати лише “бізарною” рекламою. При ближньому розгляді працівник побачив характерний колірний малюнок у нижньому правому куті, наклеєний на зображення, створені Dall-E, моделлю AI, яка генерує зображення з текстових підказок.
Зустріч з цією фальшивою рекламою LinkedIn була суттєвим нагадуванням про нові небезпеки соціальної інженерії, які зараз з’являються при поєднанні з Генеративним AI. Це ще більш критично бути пильним та підозріливим.
Ера Генеративного AI, використовуваного для кіберзлочинності, вже тут, і нам потрібно залишатися пильними та бути готовими протистояти будь-якими інструментами, які в нас є.












