Лідери думок
Генеративний штучний інтелект у кібербезпеці: поле бою, загроза, а тепер і захист

Поле битви
Те, що почалося як хвилювання щодо можливостей Generative AI, швидко перетворилося на занепокоєння. Генеративні інструменти штучного інтелекту, такі як ChatGPT, Google Bard, Dall-E тощо, продовжують потрапляти в заголовки через проблеми безпеки та конфіденційності. Це навіть призводить до сумнівів щодо того, що є справжнім, а що ні. Генеративний штучний інтелект може створювати дуже правдоподібний і, отже, переконливий контент. Настільки, що наприкінці нещодавнього сегменту 60 Minutes про штучний інтелект ведучий Скотт Пеллі залишив глядачів таке твердження; «Ми закінчимо заміткою, яка ніколи не з’являлася на 60 Minutes, але яку ви, можливо, часто чуєте в революції штучного інтелекту: попередня була створена на 100% із людським вмістом».
Кібервійна Generative AI починається з цього переконливого та реального контенту, а поле битви – це місце, де хакери використовують Generative AI, використовуючи такі інструменти, як ChatGPT тощо. Кіберзлочинцям, особливо тим, хто має обмежені ресурси та нульові технічні знання, надзвичайно легко, здійснювати свої злочини за допомогою соціальної інженерії, фішингу та атак із видаванням себе за іншу особу.
Загроза
Generative AI має силу підживлювати дедалі складніші кібератаки.
Оскільки ця технологія може легко створювати такий переконливий і схожий на людину контент, нові кібершахрайства з використанням штучного інтелекту важче помітити командам безпеки. Шахрайство, згенероване штучним інтелектом, може відбуватися у вигляді атак соціальної інженерії, таких як багатоканальні фішингові атаки, які здійснюються через електронну пошту та програми обміну повідомленнями. Реальним прикладом може бути електронний лист або повідомлення з документом, надіслане керівнику компанії від стороннього постачальника через Outlook (електронна пошта) або Slack (програма обміну повідомленнями). Електронна пошта або повідомлення скеровує їх натиснути їх, щоб переглянути рахунок-фактуру. За допомогою Generative AI майже неможливо відрізнити фальшиву електронну пошту або повідомлення від справжнього. Ось чому це так небезпечно.
Проте одним із найбільш тривожних прикладів є те, що за допомогою Generative AI кіберзлочинці можуть здійснювати атаки кількома мовами – незалежно від того, чи насправді хакер розмовляє цією мовою. Мета полягає в тому, щоб створити широку мережу, і кіберзлочинці не будуть дискримінувати жертв на основі мови.
Розвиток Generative AI свідчить про те, що масштаби та ефективність цих атак продовжуватимуть зростати.
Оборона
Кіберзахист для Generative AI, як відомо, був відсутнім шматочком головоломки. Дотепер. Використовуючи бойові дії «машина-машина» або скріплюючи ШІ проти ШІ, ми можемо захиститися від цієї нової та зростаючої загрози. Але як ця стратегія повинна бути визначена і як вона виглядає?
По-перше, індустрія повинна діяти так, щоб протиставити комп’ютер проти комп’ютера, а не людину проти комп’ютера. Щоб продовжити ці зусилля, ми повинні розглянути передові платформи виявлення, які можуть виявляти загрози, створені штучним інтелектом, скорочувати час, потрібний для позначення, і час, необхідний для вирішення атаки соціальної інженерії, яка походить від Generative AI. Те, що людина не може зробити.
Нещодавно ми провели тест, як це може виглядати. Ми попросили ChatGPT підготувати фішинговий електронний лист із зворотним викликом на основі мови кількома мовами, щоб перевірити, чи може платформа розуміння природної мови або розширена платформа виявлення його виявити. Ми дали ChatGPT підказку: «напишіть терміновий електронний лист із закликом до когось зателефонувати щодо останнього повідомлення про ліцензійну угоду на програмне забезпечення». Ми також наказали написати це англійською та японською мовами.
Розширена платформа виявлення одразу змогла позначити електронні листи як атаку соціальної інженерії. АЛЕ власні засоби керування електронною поштою, такі як платформа виявлення фішингу Outlook, не могли. Ще до випуску ChatGPT соціальна інженерія, яка здійснювалася за допомогою розмовних мовних атак, виявилася успішною, оскільки вони могли ухилятися від традиційних засобів керування, потрапляючи у вхідні без посилання чи корисного навантаження. Тож так, для захисту потрібен бій між машинами, але ми також повинні бути впевнені, що використовуємо ефективну артилерію, таку як вдосконалена платформа виявлення. Кожен, хто має в своєму розпорядженні ці інструменти, має перевагу в боротьбі з Generative AI.
Що стосується масштабу та правдоподібності атак соціальної інженерії, які надає ChatGPT та інші форми Generative AI, захист між машинами також можна покращити. Наприклад, цей захист можна розгорнути кількома мовами. Він також не обмежується лише захистом електронної пошти, але може використовуватися для інших каналів зв’язку, таких як програми, такі як Slack, WhatsApp, Teams тощо.
Залишайтеся пильними
Переглядаючи LinkedIn, один із наших співробітників натрапив на спробу соціальної інженерії Generative AI. З’явилася дивна реклама для завантаження «технічного документу» з тим, що можна просто щедро описати як «химерне» рекламне оголошення. При ближчому огляді співробітник побачив яскравий кольоровий візерунок у нижньому правому куті, вибитий на зображеннях, створених Dall-E, моделлю штучного інтелекту, яка генерує зображення з текстових підказок.
Зіткнення з цією фальшивою рекламою LinkedIn стало значним нагадуванням про нові небезпеки соціальної інженерії, які зараз з’являються в поєднанні з Generative AI. Зараз як ніколи важливо бути пильним і підозрілим.
Настала епоха генеративного штучного інтелекту, який використовується для кіберзлочинності, і ми повинні залишатися пильними та бути готовими дати відсіч усіма інструментами, які є в нашому розпорядженні.