Лідери думок
Чи вирішить LLM і Генеративний AI 20-річну проблему у сфері безпеки застосунків?

У постійно змінюваному ландшафті кібербезпеки залишається постійним викликом бути на крок попереду зловмисних акторів. Протягом останніх двох десятиліть проблема безпеки застосунків тривала, а традиційні методи часто виявлялися недостатніми для виявлення та пом’якшення нових загроз. Однак перспективна нова технологія – Генеративний AI (GenAI) – готується революціонізувати цю сферу. У цій статті ми розглянемо, як Генеративний AI стосується безпеки, чому він вирішує довгострокові проблеми, які попередні підходи не могли вирішити, які порушення він може принести до екосистеми безпеки та як він відрізняється від старих моделей Machine Learning (ML).
Чому проблема вимагає нової технології
Проблема безпеки застосунків є багатогранною та складною. Традиційні заходи безпеки в основному спиралися на підхід до співпадіння шаблонів, виявлення на основі підписів та підхід, заснований на правилах. Хоча ці методи ефективні в простих випадках, вони мають труднощі з вирішенням творчих способів написання коду розробниками та конфігурації систем. Сучасні противники постійно розширюють свої тактики атак, розширюють поверхню атаки та роблять співпадіння шаблонів недостатнім для захисту від нових ризиків. Це вимагає зміни парадигми підходів до безпеки, а Генеративний AI володіє можливим ключем до вирішення цих проблем.
Магія LLM у сфері безпеки
Генеративний AI є вдосконаленням старих моделей, які використовувалися в алгоритмах машинного навчання, які були великими у класифікації або групуванні даних на основі навчених синтетичних зразків. Сучасні LLM навчаються на мільйонах прикладів з великих репозиторіїв коду (наприклад, GitHub), які частково позначені для проблем безпеки. Навчаючись на величезних обсягах даних, сучасні моделі LLM можуть зрозуміти основні закономірності, структури та відносини всередині коду застосунку та середовища, що дозволяє їм визначати потенційні уразливості та передбачати вектори атак за умови правильних входів та налаштувань.
Іншим великим вдосконаленням є можливість генерації реалістичних зразків виправлень, які можуть допомогти розробникам зрозуміти корінну причину та вирішити проблеми швидше, особливо в складних організаціях, де спеціалісти з безпеки організаційно ізольовані та перевантажені.
Майбутні порушення, забезпечені GenAI
Генеративний AI має потенціал порушити екосистему безпеки застосунків кількома способами:
Автоматичне виявлення уразливостей: Традиційні інструменти сканування уразливостей часто спираються на ручне визначення правил або обмежене співпадіння шаблонів. Генеративний AI може автоматизувати процес, навчаючись на великих репозиторіях коду та генеруючи синтетичні зразки для виявлення уразливостей, зменшуючи час та зусилля, необхідні для ручного аналізу.
Імітація атак противника: Тестування безпеки зазвичай включає імітацію атак для виявлення слабких місць у застосунку. Генеративний AI може генерувати реалістичні сценарії атак, включаючи складні, багатокрокові атаки, дозволяючи організаціям посилити свою оборону проти реальних загроз. Великим прикладом є “BurpGPT”, поєднання GPT та Burp, яке допомагає виявляти динамічні проблеми безпеки.
Інтелектуальна генерація патчів: Генерація ефективних патчів для уразливостей є складним завданням. Генеративний AI може аналізувати існуючі кодові бази та генерувати патчі, які вирішують конкретні уразливості, зберігаючи час та мінімізуючи людську помилку під час процесу розробки патчів.
Хоча такі виправлення традиційно відхилялися промисловістю, поєднання автоматичних виправлень коду та можливості генерації тестів GenAI може бути великим способом для промисловості розширити межі до нових рівнів.
Покращена розвідка загроз: Генеративний AI може аналізувати великі обсяги даних, пов’язаних з безпекою, включаючи звіти про уразливості, шаблони атак та зразки шкідливого ПО. GenAI може суттєво покращити можливості розвідки загроз, генеруючи ідеї та визначаючи нові тенденції з початкової індикації до реальної дії, дозволяючи здійснювати проактивні стратегії оборони.
Майбутнє LLM і безпеки застосунків
LLM ще мають прогалини у досягненні ідеальної безпеки застосунків через обмежене контекстне розуміння, неповне покриття коду, відсутність оцінки в реальному часі та відсутність галузевих знань. Для вирішення цих прогалин у найближчі роки ймовірним рішенням буде поєднання підходів LLM з присвяченими інструментами безпеки, зовнішніми джерелами розширення та сканерами. Тривалі вдосконалення у сфері AI та безпеки допоможуть закрити ці прогалини.
Загалом, якщо у вас більший набір даних, ви можете створити більш точний LLM. Це相同 і для коду, тому коли у нас буде більше коду однієї мови, ми зможемо використовувати його для створення кращих LLM, які, у свою чергу, забезпечать краще генерацію коду та безпеку в майбутньому.
Ми очікуємо, що у найближчі роки ми станемо свідками вдосконалення технології LLM, включаючи можливість використання більших розмірів токенів, що має великий потенціал для подальшого покращення AI-основаної кібербезпеки суттєвим чином.












