Лідери думок
Чи вирішать LLM і Generative AI 20-річну проблему безпеки додатків?

У середовищі кібербезпеки, що постійно змінюється, залишатися на крок попереду зловмисників є постійним викликом. Протягом останніх двох десятиліть проблема безпеки додатків зберігалася, оскільки традиційні методи часто не виявляли та пом’якшували нові загрози. Однак нова багатообіцяюча технологія Generative AI (GenAI) готова зробити революцію в цій галузі. У цій статті ми дослідимо, як Generative AI має відношення до безпеки, чому він вирішує давні проблеми, які попередні підходи не могли вирішити, потенційні збої, які він може спричинити для екосистеми безпеки, і чим він відрізняється від старішого машинного навчання ( ML) моделі.
Чому проблема вимагає нових технологій
Проблема безпеки додатків багатогранна і складна. Традиційні заходи безпеки в основному спиралися на зіставлення шаблонів, виявлення на основі сигнатур і підходи на основі правил. Незважаючи на те, що ці методи ефективні в простих випадках, вони не справляються з творчими способами, якими розробники пишуть код і налаштовують системи. Сучасні супротивники постійно вдосконалюють свої методи атаки, розширюють поверхню атаки та роблять недостатнім збіг шаблонів для захисту від нових ризиків. Це вимагає зміни парадигми підходів до безпеки, і Generative AI має можливий ключ до вирішення цих проблем.
Магія LLM у сфері безпеки
Генеративний штучний інтелект є прогресом у порівнянні зі старішими моделями, що використовуються в алгоритмах машинного навчання, які чудово класифікували або кластеризували дані на основі навченого навчання синтетичних зразків. Сучасні магістратури навчаються на мільйонах прикладів із великих сховищ коду (наприклад, GitHub), які частково позначені для проблем безпеки. Навчаючись на величезних масивах даних, сучасні моделі LLM можуть зрозуміти базові шаблони, структури та взаємозв’язки в коді програми та середовищі, дозволяючи їм визначати потенційні вразливості та передбачати вектори атак, враховуючи правильні вхідні дані та підготовку.
Іншим великим досягненням є можливість створювати реалістичні зразки виправлень, які можуть допомогти розробникам зрозуміти першопричину та швидше вирішувати проблеми, особливо в складних організаціях, де спеціалісти з безпеки організаційно відокремлені та перевантажені.
Майбутні збої за допомогою GenAI
Generative AI має потенціал порушити екосистему безпеки програми кількома способами:
Автоматичне виявлення вразливостей: Традиційні інструменти сканування вразливостей часто покладаються на визначення правил вручну або обмежене зіставлення шаблонів. Generative AI може автоматизувати процес, навчаючись із великих сховищ коду та генеруючи синтетичні зразки для виявлення вразливостей, скорочуючи час і зусилля, необхідні для ручного аналізу.
Симуляція змагальної атаки: Тестування безпеки зазвичай передбачає імітацію атак для виявлення слабких місць у програмі. Генеративний штучний інтелект може генерувати реалістичні сценарії атак, у тому числі складні багатоетапні атаки, що дозволяє організаціям посилити захист від реальних загроз. Чудовим прикладом є «BurpGPT», комбінація GPT і Burp, яка допомагає виявляти динамічні проблеми безпеки.
Інтелектуальна генерація патчів: Створення ефективних виправлень для вразливостей є складним завданням. Generative AI може аналізувати існуючі кодові бази та генерувати виправлення, які усувають певні вразливості, заощаджуючи час і мінімізуючи людські помилки в процесі розробки виправлень.
Хоча індустрія традиційно відкидала такі виправлення, поєднання автоматизованих виправлень коду та можливості генерувати тести за допомогою GenAI може стати чудовим способом для індустрії розсунути межі на новий рівень.
Розширений аналіз загроз: Generative AI може аналізувати великі обсяги даних, пов’язаних із безпекою, включаючи звіти про вразливості, шаблони атак і зразки шкідливих програм. GenAI може значно розширити можливості аналізу загроз, генеруючи інформацію та визначаючи тенденції, що виникають, починаючи від початкової вказівки і закінчуючи справжньою дієвою ігрою, уможливлюючи проактивні стратегії захисту.
Майбутнє LLM і безпеки додатків
LLM все ще мають прогалини в досягненні ідеальної безпеки додатків через обмежене розуміння контексту, неповне охоплення коду, відсутність оцінки в режимі реального часу та відсутність знань, пов’язаних із предметною областю. Щоб усунути ці прогалини в найближчі роки, ймовірне рішення повинне поєднати підходи LLM із спеціальними інструментами безпеки, зовнішніми джерелами збагачення та сканерами. Постійний прогрес у галузі ШІ та безпеки допоможе подолати ці прогалини.
Загалом, якщо у вас є більший набір даних, ви можете створити більш точний LLM. Те ж саме стосується коду, тож коли у нас буде більше коду тією самою мовою, ми зможемо використовувати його для створення кращих LLM, що, у свою чергу, сприятиме кращому створенню коду та забезпеченню безпеки.
Ми очікуємо, що в найближчі роки ми станемо свідками прогресу в технології LLM, включаючи можливість використовувати більші розміри токенів, що містить великий потенціал для подальшого значного покращення кібербезпеки на основі ШІ.