Кибербезопасность
3 столпа ИИ в кибербезопасности
Искусственный интеллект (ИИ) захватил отрасль кибербезопасности, и поставщики всех видов работают над интеграцией ИИ в свои решения. Но отношение между ИИ и безопасностью заключается не только в реализации возможностей ИИ — это также о том, как как злоумышленники, так и защитники используют эту технологию для изменения лица современного ландшафта угроз. Это также о том, как эти модели ИИ разрабатываются, обновляются и защищаются. Сегодня существуют три основных столпа ИИ в кибербезопасности — и по мере того, как все больше организаций обращаются к поставщикам безопасности с решениями на основе ИИ, становится все более важно понимать, как эта технология фактически используется.
Столп #1: Защита возможностей ИИ
По мере того, как внедрение решений на основе ИИ продолжает стремительно расти, бизнес все больше осознает, что защита этих решений должна быть приоритетом. Решения ИИ обучаются на огромных объемах данных (чем больше данных, тем точнее решение), что означает, что злоумышленник, который сможет проникнуть в одно из этих решений, может получить доступ к сокровищнице данных клиентов, интеллектуальной собственности, финансовой информации и других ценных активов. Поскольку злоумышленники все чаще используют эти векторы атак, первой линией обороны для организаций является их способность защитить модели ИИ, которые они используют в своей повседневной деятельности.
К счастью, эта проблема не является секретом — на самом деле, рынок решений, специально предназначенных для защиты моделей ИИ, растет быстро, и за последний год или два появилось значительное количество стартапов. Также важно помнить, что хотя решения, такие как генеративный ИИ, относительно новые, ИИ существует уже довольно давно — и большинство решений ИИ имеют некоторый уровень безопасности встроенный в них. Тем не менее, организации должны всегда принимать любые дополнительные меры, необходимые для защиты себя и своих данных, и нет недостатка в решениях третьих сторон, которые могут помочь защитить трубопроводы ИИ от злоумышленников, ищущих легкую добычу.
Столп #2: Остановка злоумышленников, использующих ИИ
Учитывая, что ИИ становится все более доступным, не должно вызывать удивления, что злоумышленники используют эту технологию для своих целей. Как и ИИ позволяет организациям оптимизировать свои операции и автоматизировать скучные и повторяющиеся процессы, он также помогает злоумышленникам увеличить масштаб и сложность своих атак. В практическом смысле злоумышленники не используют ИИ для совершения “новых” типов атак — по крайней мере, пока. Но технология делает более легким участие в существующих тактиках атак в чрезвычайно высоком объеме.
Например, фишинговые атаки — это игра в числа — если только 1% получателей кликнет на вредоносную ссылку, это победа для злоумышленника. Но с помощью ИИ злоумышленники могут применить беспрецедентный уровень персонализации к своим фишинговым электронным письмам, что делает их более убедительными — и опасными — чем когда-либо. Хуже того, как только организация была скомпрометирована (с помощью фишинга или других средств), злоумышленник может использовать ИИ для анализа данных об открытии и создания процесса принятия решений, который делает распространение более легким и скрытным. Чем больше злоумышленники могут автоматизировать распространение, тем быстрее они могут достичь своей цели — часто до того, как традиционные инструменты безопасности смогут даже выявить атаку, не говоря уже о том, чтобы эффективно на нее отреагировать.
Это означает, что организации должны быть готовы — и это начинается с наличия решений, которые могут выявить и защитить от этих высокообъемных и высокосложных атак. Хотя многие предприятия могут иметь решения, чтобы защититься от фишинговых атак, атак вредоносного ПО и других векторов, важно протестировать эти решения, чтобы убедиться, что они остаются эффективными, поскольку атаки становятся более частыми и сложными. Руководители по безопасности должны помнить, что это не только о том, чтобы иметь правильные решения на месте — это также о том, чтобы убедиться, что они работают так, как ожидается, против реальных угроз.
Столп #3: Использование ИИ в продуктах кибербезопасности
Последний столп — это тот, с которым наиболее знакомы специалисты по безопасности: поставщики кибербезопасности используют ИИ в своих продуктах. Одним из того, что ИИ лучше всего умеет, является выявление закономерностей, что делает его идеальным для выявления подозрительного или аномального поведения. Растущее число поставщиков развертывает ИИ в своих решениях обнаружения, и многие также используют ИИ для автоматизации определенных элементов смягчения. В прошлом решение низкоуровневых угроз было скучным, но необходимым элементом кибербезопасности. Сегодня ИИ может автоматизировать большую часть этого процесса, решая незначительные инциденты автоматически и позволяя специалистам по безопасности сосредоточиться только на тех угрозах, которые требуют прямого внимания.
Это добавило значительную ценность широкому спектру решений безопасности, но это не происходит в вакууме. Модели ИИ необходимо поддерживать, и важно работать с поставщиками, которые имеют репутацию постоянного обновления своих моделей. Проверка потенциальных партнеров по безопасности имеет решающее значение, и организации должны знать, как поставщики работают с ИИ: где их данные берутся, как они избегают проблем, таких как встроенный предвзятость, и другие факторы могут (и должны) повлиять на решение о работе с определенным поставщиком. Хотя решения ИИ набирают обороты几乎 в каждой отрасли, они не все созданы равными. Организации должны обеспечить, чтобы они работали с партнерами по безопасности, которые понимают тонкости технологии, а не с поставщиками, которые видят “ИИ” просто как маркетинговый бренд.
Подход к ИИ с уверенностью
По мере того, как ИИ становится все более повсеместным на ландшафте кибербезопасности, важно, чтобы организации знакомились с тем, как эта технология фактически используется. Это означает понимание как способов, с помощью которых ИИ может улучшить решения безопасности, так и способов, с помощью которых он может помочь злоумышленникам создать более совершенные атаки. Это также означает признание того, что данные, на которых построены современные модели ИИ, необходимо защитить — и работа с поставщиками, которые отдают приоритет безопасному и безопасному развертыванию технологии, имеет решающее значение. Понимая три основных столпа ИИ и безопасности, организации могут обеспечить, чтобы они имели базовые знания, необходимые для подхода к технологии с уверенностью.












