Свяжитесь с нами:

Три столпа искусственного интеллекта в кибербезопасности

Лидеры мысли

Три столпа искусственного интеллекта в кибербезопасности

mm

Искусственный интеллект (ИИ) взял на себя информационной безопасности отрасль бурно развивается: поставщики всех видов работают над интеграцией искусственного интеллекта в свои решения. Но отношения между ИИ и безопасностью — это нечто большее, чем просто реализация возможностей ИИ. Речь идет о том, как злоумышленники и защитники используют эту технологию, чтобы изменить облик современного ландшафта угроз. Речь также идет о том, как эти модели ИИ разрабатываются, обновляются и защищаются. Сегодня существует три основных столпа ИИ в сфере кибербезопасности, и по мере того, как все больше организаций обращаются к поставщикам услуг безопасности с решениями на основе ИИ, становится все более важным понимать, как на самом деле используется эта технология.

Столп № 1: Защита возможностей искусственного интеллекта

Поскольку внедрение решений на основе искусственного интеллекта продолжает стремительно расти, компании все больше осознают, что защита этих решений должна быть приоритетом. Решения искусственного интеллекта обучаются на огромных объемах данных (чем больше данных, тем точнее решение), а это означает, что злоумышленник, которому удастся взломать одно из этих решений, может оказаться в сокровищнице данных клиентов, интеллектуальной собственности, финансовой информации, и другие ценные активы. Поскольку злоумышленники все чаще используют эти векторы атак, первой линией защиты организаций становится их способность защитить модели искусственного интеллекта, которые они используют изо дня в день.

К счастью, эта проблема не является секретом — на самом деле рынок решений, специально предназначенных для защиты моделей ИИ, быстро растет, и за последние год-два появилось значительное количество стартапов. Также важно помнить, что, хотя такие решения, как генеративный ИИ, относительно новы, ИИ существует уже довольно давно, и большинство решений ИИ обладают определенной степенью безопасности. встроен в них. Тем не менее, организациям всегда следует предпринимать любые дополнительные шаги, необходимые для защиты себя и своих данных, и нет недостатка в сторонних решениях, которые могут помочь защитить конвейеры ИИ от злоумышленников, ищущих легкой добычи.

Столп № 2: Остановить злоумышленников, использующих ИИ

Поскольку ИИ становится все более доступным, неудивительно, что злоумышленники используют эту технологию в своих целях. Подобно тому, как ИИ позволяет организациям оптимизировать свою деятельность и автоматизировать утомительные и повторяющиеся процессы, он также помогает злоумышленникам увеличить масштаб и сложность своих атак. На практике злоумышленники на самом деле не используют ИИ для проведения «новых» типов атак — по крайней мере, пока. Но эта технология упрощает использование существующих тактик атак в чрезвычайно больших объемах.

Например, фишинговое мошенничество — это игра с числами: если хотя бы 1% получателей щелкнет вредоносную ссылку, это победа для злоумышленника. Но с помощью ИИЗлоумышленники могут применять беспрецедентный уровень персонализации к своим фишинговым электронным письмам, делая их более убедительными и опасными, чем когда-либо. Хуже того, как только организация подверглась компрометации (с помощью фишинга или других средств), злоумышленник может использовать ИИ для анализа данных обнаружения и создания процесса принятия решений, который упрощает и делает распространение вируса более скрытным. Чем больше злоумышленников смогут автоматизировать распространение, тем быстрее они смогут достичь своей цели — зачастую еще до того, как традиционные инструменты безопасности смогут даже идентифицировать атаку, не говоря уже о том, чтобы эффективно отреагировать на нее.

Это означает, что организации должны быть готовы — и это начинается с наличия решений, которые могут выявлять и защищать от этих массовых и сложных атак. Хотя многие компании могут иметь решения для защиты от фишинга, атак вредоносного ПО и других векторов, важно протестировать эти решения, чтобы убедиться, что они остаются эффективными, поскольку атаки становятся все более частыми и сложными. Руководители службы безопасности должны помнить, что речь идет не только о наличии правильных решений, но и о том, чтобы убедиться, что они работают должным образом против реальных угроз.

Принцип №3: Использование ИИ в продуктах кибербезопасности

Последний столп — это тот, с которым профессионалы в области безопасности знакомы лучше всего: поставщики кибербезопасности, использующие ИИ в своих продуктах. Одна из вещей, в которых ИИ лучше всего справляется, — это выявление закономерностей, что делает его идеальным для выявления подозрительной или аномальной активности. Все большее число поставщиков используют ИИ в своих решениях для обнаружения, и многие из них также используют ИИ для автоматизации определенных элементов устранения проблем. В прошлом борьба с угрозами низкого уровня была утомительным, но необходимым элементом кибербезопасности. Сегодня ИИ может автоматизировать большую часть этого процесса, автоматически устраняя незначительные инциденты и позволяя специалистам по безопасности сосредоточиться только на тех угрозах, которые требуют прямого внимания.

Это значительно повысило ценность широкого спектра решений по обеспечению безопасности, но это происходит не в вакууме. Модели ИИ необходимо поддерживать, и важно работать с поставщиками, которые имеют репутацию постоянно обновляемых своих моделей. Проверка потенциальных партнеров по безопасности имеет решающее значение, и организациям необходимо знать, как поставщики работают с ИИ: откуда берутся их данные, как они избегают таких проблем, как присущая им предвзятость, и другие факторы могут (и должны) повлиять на решение о том, работать ли с определенным продавец. Хотя решения искусственного интеллекта набирают популярность практически во всех отраслях, не все они созданы равными. Организациям необходимо убедиться, что они работают с партнерами по безопасности, которые понимают все тонкости технологии, а не с поставщиками, которые рассматривают «ИИ» просто как модное маркетинговое словечко.

Подход к искусственному интеллекту с уверенностью

Поскольку ИИ становится все более повсеместным в сфере кибербезопасности, организациям важно ознакомиться со способами фактического использования этой технологии. Это означает понимание как того, как ИИ может улучшить решения безопасности, так и того, как он может помочь злоумышленникам создавать более сложные атаки. Это также означает признание того, что данные, на основе которых строятся сегодняшние модели искусственного интеллекта, должны быть защищены, а работа с поставщиками, которые отдают приоритет безопасному и надежному развертыванию технологии, имеет решающее значение. Понимая три основных столпа ИИ и безопасности, организации могут гарантировать, что у них есть базовые знания, необходимые для уверенного подхода к этой технологии.

Нир Лойя-Дахан — вице-президент по продуктам Cymulate. Нир — ветеран стартапа с десятилетним опытом работы в области кибербезопасности, в том числе семилетним в военной разведке Израиля. Он получил степень бакалавра экономики в Рейхманском университете и основал программу по подготовке студентов к работе младших менеджеров по продукту.