Connect with us

Будут ли LLM и Генеративный ИИ решать 20-летнюю проблему в области безопасности приложений?

Лидеры мнений

Будут ли LLM и Генеративный ИИ решать 20-летнюю проблему в области безопасности приложений?

mm

В постоянно меняющемся ландшафте кибербезопасности поддержание преимущества над злонамеренными акторами является постоянной проблемой. На протяжении двух десятилетий проблема безопасности приложений сохраняется, и традиционные методы часто не справляются с обнаружением и смягчением возникающих угроз. Однако перспективная новая технология, Генеративный ИИ (GenAI), готова революционизировать эту область. В этой статье мы рассмотрим, как Генеративный ИИ имеет отношение к безопасности, почему он решает давние проблемы, которые предыдущие подходы не смогли решить, какие потенциальные нарушения он может принести в экосистему безопасности, и как он отличается от более старых моделей машинного обучения (ML).

Почему проблема требует новой технологии

Проблема безопасности приложений является многофакторной и сложной. Традиционные меры безопасности в основном полагались на сопоставление с образцом, обнаружение на основе сигнатуры и подходы, основанные на правилах. Хотя они эффективны в простых случаях, эти методы испытывают трудности в решении творческих способов написания кода и конфигурирования систем разработчиками. Современные противники постоянно совершенствуют свои тактики атак, расширяют поверхность атаки и делают сопоставление с образцом недостаточным для защиты от возникающих рисков. Это требует смены парадигмы подходов к безопасности, и Генеративный ИИ держит возможный ключ к решению этих проблем.

Магия LLM в безопасности

Генеративный ИИ является развитием более старых моделей, используемых в алгоритмах машинного обучения, которые были велики в классификации или кластеризации данных на основе обучения синтетическим образцам. Современные LLM обучаются на миллионах примеров из больших репозиториев кода (например, GitHub), которые частично помечены для проблем безопасности. Обучаясь на огромных объемах данных, современные модели LLM могут понять лежащие в основе закономерности, структуры и отношения внутри кода приложения и окружения, что позволяет им выявлять потенциальные уязвимости и предсказывать векторы атак при правильных входных данных и подготовке.

Еще одним великим достижением является возможность генерировать реалистичные исправления, которые могут помочь разработчикам понять коренную причину и решить проблемы быстрее, особенно в сложных организациях, где специалисты по безопасности изолированы организационно и перегружены.

Нарушения, обусловленные GenAI

Генеративный ИИ имеет потенциал нарушить экосистему безопасности приложений несколькими способами:

Автоматическое обнаружение уязвимостей: Традиционные инструменты сканирования уязвимостей часто полагаются на ручное определение правил или ограниченное сопоставление с образцом. Генеративный ИИ может автоматизировать процесс, обучаясь на обширных репозиториях кода и генерируя синтетические образцы для выявления уязвимостей, сокращая время и усилия, необходимые для ручного анализа.

Симуляция атак противников: Тестирование безопасности обычно включает в себя симуляцию атак для выявления слабых мест в приложении. Генеративный ИИ может генерировать реалистичные сценарии атак, включая сложные, многоступенчатые атаки, позволяя организациям укрепить свою оборону против реальных угроз. Отличным примером является «BurpGPT», сочетание GPT и Burp, которое помогает обнаруживать динамические проблемы безопасности.

Интеллектуальная генерация патчей: Генерирование эффективных патчей для уязвимостей является сложной задачей. Генеративный ИИ может анализировать существующие кодовые базы и генерировать патчи, которые решают конкретные уязвимости, экономя время и минимизируя человеческие ошибки в процессе разработки патчей.

Хотя такие исправления традиционно отвергались отраслью, сочетание автоматических исправлений кода и возможности генерировать тесты с помощью GenAI может стать отличным способом для отрасли расширить границы до новых уровней.

Улучшенная интеллект угроз: Генеративный ИИ может анализировать большие объемы данных, связанных с безопасностью, включая отчеты об уязвимостях, закономерности атак и образцы вредоносного ПО. GenAI может значительно улучшить возможности интеллекта угроз, генерируя идеи и выявляя возникающие тенденции от первоначального указания до реального действенного плейбука, позволяя проводить проактивные оборонительные стратегии.

Будущее LLM и безопасности приложений

LLM все еще имеют пробелы в достижении идеальной безопасности приложений из-за ограниченного контекстного понимания, неполного покрытия кода, отсутствия оценки в реальном времени и отсутствия знаний, специфичных для области. Чтобы решить эти пробелы в ближайшие годы, вероятным решением будет сочетание подходов LLM с посвященными инструментами безопасности, внешними источниками обогащения и сканерами. Продолжающиеся достижения в области ИИ и безопасности помогут устранить эти пробелы.

В общем, если у вас есть более крупный набор данных, вы можете создать более точный LLM. Это то же самое для кода, поэтому когда у нас будет больше кода на одном языке, мы сможем использовать его для создания лучших LLM, что, в свою очередь, будет стимулировать лучшую генерацию кода и безопасность в будущем.

Мы ожидаем, что в ближайшие годы мы станем свидетелями достижений в технологии LLM, включая возможность использования более крупных размеров токенов, что имеет большой потенциал для дальнейшего улучшения ИИ-основанной кибербезопасности значительным образом.

Neatsun Ziv является генеральным директором и сооснователем OX Security, первого комплексного решения для обеспечения безопасности цепочки поставок программного обеспечения для DevSecOps. До основания OX он занимал должность вице-президента по кибербезопасности в Check Point, где курировал все инициативы в области кибербезопасности. Его команда была одной из первых, кто отреагировал на атаки SolarWinds, NotPetya и другие крупные атаки, работая в тесном сотрудничестве с Интерполом, местными CERT и другими правоохранительными органами.