Интервью
Крейг Ридделл, Глобальный Филд CISO в Wallarm – Интервью

Крейг Ридделл, Глобальный Филд CISO в Wallarm, является опытным исполнительным директором по кибербезопасности, который фокусируется на помощи предприятиям в управлении растущими рисками, связанными с API и системами, основанными на ИИ. В своей текущей роли он тесно сотрудничает с CISO, CIO и руководителями инженерных команд, чтобы перевести реальные модели атак и сценарии злоупотребления в действенные стратегии безопасности, с сильным акцентом на наблюдаемости – понимании того, как API и системы ИИ ведут себя в производстве среди пользователей, приложений и интеграций. Его карьера охватывает руководящие роли в области управления идентификацией и доступом, архитектуры нулевого доверия и безопасности предприятия в организациях, включая Netwrix, Kron и HP, где он реализовал крупномасштабные трансформации IAM и модернизировал рамки безопасности. Экспертиза Ридделла集中ится на возникающих угрозах, таких как атаки на бизнес-логику, злоупотребление API, дрейф систем ИИ и мошенничество, с постоянным акцентом на сокращении разрыва между высокоуровневой стратегией безопасности и операционным выполнением.
Wallarm является компанией по кибербезопасности, специализирующейся на защите API, приложений и систем, основанных на ИИ, в современных облачных средах. Ее платформа обеспечивает непрерывное обнаружение, тестирование и реальное время защиты от угроз, таких как злоупотребление API, атаки на бизнес-логику и автоматизированные эксплойты, предлагая глубокую видимость того, как системы ведут себя в сложных инфраструктурах. Разработанная для многооблачных и облачных архитектур, Wallarm интегрируется в существующие рабочие процессы DevOps и безопасности, позволяя организациям обнаруживать и блокировать атаки по мере их возникновения, а не после факта. Объединяя инвентаризацию API, обнаружение угроз на основе ИИ и автоматические возможности реагирования, платформа решает растущую реальность, в которой API и системы ИИ стали основной поверхностью атаки для современных цифровых бизнесов.
Вы начали свою карьеру, работая напрямую с системами и инфраструктурой, и с тех пор перешли на руководящие роли, ориентированные на безопасность идентификации, доступа, API и ИИ. Какие ключевые сдвиги на этом пути привели вас к выводу, что реальный риск переместился от периметра и в API и машино-ориентированные системы?
Ранее в своей карьере основной фокус был на защите периметра. Брандмауэры, сегментация, укрепление инфраструктуры. Эта модель работала, когда системы были более статичными, и границы доверия были легче определить.
Что изменилось, так это то, как строятся приложения и взаимодействуют системы. API стали связующим звеном всего, и ИИ ускорил это еще больше. Теперь системы принимают решения, вызывают другие системы и выполняют действия в масштабе и скорости, которые не предполагают участия человека в цикле.
В этот момент периметр становится менее актуальным. Реальный риск перемещается туда, где принимаются решения и выполняются действия, внутри API и машино-ориентированных рабочих процессов.
Если у вас нет видимости и контроля там, вы доверяете поведению, которое не можете полностью увидеть. Вот где возникает бизнес-риск, от финансового воздействия до непредвиденных последствий и операционных сбоев.
Вы описали кибер-протокол рукопожатия как сломанный, имея в виду, как системы устанавливают доверие и обмениваются действиями через все более сложные цепочки API и автоматизированных процессов. Как выглядит этот разрыв в реальной корпоративной среде сегодня?
В большинстве сред системы доверяют друг другу на основе идентификации и аутентификации. Токен действителен, запрос хорошо сформирован, и взаимодействие разрешено.
Проблема заключается в том, что это предполагает, что действительный равен безопасному. Это больше не так.
Мы аутентифицируем идентификацию, но не проверяем намерение. Мы проверяем доступ, но не поведение в цепочке.
Сервис может быть авторизован для вызова другого сервиса, который запускает последующие действия через несколько API. Каждый шаг выглядит законным в изоляции, но на протяжении всей цепочки вы начинаете видеть непредвиденное поведение или злоупотребление логикой.
В средах, основанных на ИИ, это усиливается. Агенты могут объединять действия и выполнять рабочие процессы без человеческого обзора.
Протокол рукопожатия все еще происходит, но никто не спрашивает, имеет ли поведение смысл в контексте. Доверие устанавливается, но не постоянно проверяется.
Почему риск ИИ и API так часто падает между организационными границами, а не четко принадлежит?
Потому что системы не соответствуют тому, как структурированы организации.
DevOps владеет доставкой. Безопасность владеет политикой. Бизнес-команды владеют результатами. Команды данных владеют моделями. Каждая группа владеет частью, но никто не владеет системой, как она ведет себя в производстве.
API выполняют бизнес-логику через системы. ИИ вводит недетерминированное принятие решений поверх этого. Вместе они пересекают каждую границу.
Они строятся одной командой, защищаются другой командой и потребляются третьей командой, с непоследовательным мониторингом через все эти команды.
Провалы, которые это создает, не являются провалами команд. Они являются провалами операционной модели, чтобы отразить, как современные системы на самом деле работают.
В вашем опыте, какие команды обычно полагают, что они владеют риском ИИ, и где находятся самые большие слепые пятна между безопасностью, DevOps и бизнес-единицами?
Команды безопасности склонны владеть риском ИИ с точки зрения управления и соответствия требованиям. DevOps владеет развертыванием и надежностью. Бизнес-единицы фокусируются на результатах.
Слепые пятна появляются между этими областями.
Безопасность определяет, что должно произойти. DevOps обеспечивает работу системы. Бизнес фокусируется на результатах. Но очень немногие команды последовательно смотрят на то, что система на самом деле делает в реальном времени.
Этот разрыв является местом, где живет риск, особенно когда поведение технически действительно, но контекстно неправильно.
Многие современные атаки выглядят как действительные и аутентифицированные поведения, а не очевидные вторжения. Как должны организации пересмотреть обнаружение в этой новой реальности?
Нам нужно выйти за рамки выявления “плохих” запросов.
Во многих случаях запрос действителен. Учетные данные легитимны. Вызов API ожидаем. Что не ожидается, так это последовательность действий, объем или результат.
Обнаружение должно стать поведенческим и контекстным. Это меньше о блокировании единичного запроса и больше о понимании того, как системы взаимодействуют во времени.
Подходы, которые действительно выдерживают в масштабе, выходят за рамки сопоставления с образцом. Они структурируют запросы, рассматривая каждое взаимодействие как набор поведенческих токенов, а не пытаясь сопоставить с известными плохими образцами.
Это позволяет понять, как поведение эволюционирует и где оно отклоняется, даже когда все выглядит действительным на поверхности.
Если вы полагаетесь на статические правила или сигнатуры, вы пропустите большинство того, что имеет значение.
Вы подчеркнули важность наблюдаемости реального поведения. Что представляет собой осмысленная наблюдаемость для API и систем ИИ в производстве?
Осмысленная наблюдаемость не является просто журналами и метриками. Это понимание поведения в контексте.
Для API это означает полную видимость запроса и ответа, того, как используются конечные точки, и того, как взаимодействия эволюционируют во времени.
Для систем ИИ это означает понимание входных данных, решений и результирующих действий.
Самое главное, это означает соединение этих систем в полные рабочие процессы, а не изолированные события.
Без этого вы работаете на предположениях о поведении системы, а не на реальности.
Почему традиционные модели человеческого обзора и утверждения становятся менее эффективными в машино-ориентированных средах?
Потому что скорость и масштаб изменились.
Системы делают тысячи или миллионы вызовов в минуту, и атаки или непредвиденное поведение могут разворачиваться в течение минут или секунд. Вы не можете реалистично поставить человека в цикл для каждого решения без нарушения производительности.
Системы ИИ также не всегда детерминированы, что делает модели предварительного утверждения менее эффективными.
Человеческий надзор все еще имеет значение, но он должен сдвинуться от утверждения отдельных действий к определению ограничений и мониторингу результатов.
Какие наиболее распространенные операционные пробелы вы видите, когда компании пытаются защитить системы ИИ, используя устаревшие рамки безопасности?
Самый большой пробел – это чрезмерная зависимость от контроля на этапе проектирования.
Организации фокусируются на защите моделей, обзоре кода и определении политик до развертывания. Это важно, но оно предполагает, что системы будут вести себя так, как ожидается, как только они будут живыми.
На самом деле системы эволюционируют. API меняются. Модели ИИ взаимодействуют с новыми данными и рабочими процессами. Поведение меняется со временем.
Без непрерывной проверки поведения в производстве организации эффективно слепы после развертывания.
Что представляет собой практическая операционная модель, когда несколько заинтересованных сторон делят ответственность за риск ИИ и API?
Она начинается с признания того, что ни одна команда не может владеть этим процессом от начала до конца.
Практическая модель определяет совместную ответственность, закрепленную вокруг общего источника истины: поведения во время выполнения.
Безопасность определяет риск и политику. Инженерия строит и эксплуатирует системы. Бизнес определяет приемлемые результаты.
Команды, которые выигрывают в этом, работают в замкнутом цикле. Непрерывное открытие, принудительное исполнение и уточнение, управляемые тем, что системы на самом деле делают в производстве, а не тем, что было предположено на этапе проектирования.
Все заинтересованные стороны нуждаются в видимости того, как системы работают в производстве. Оттуда команды могут согласовать, что такое “хорошо”, обнаружить отклонения и отреагировать.
Сдвиг происходит от изолированного владения к координированной ответственности, основанной на информации о выполнении.
Оглядываясь вперед, ожидаете ли вы, что ответственность за безопасность станет более централизованной снова или будет продолжать фрагментироваться, поскольку системы становятся более автономными?
Ответственность останется распределенной, потому что это отражает, как строятся системы.
Что изменится, так это то, как эта ответственность координируется.
Мы увидим больше унифицированных моделей управления, где команды владеют своими доменами, но работают с общей видимостью и контекстом.
Организации, которые преуспеют, не будут теми, которые попытаются централизовать все. Они будут теми, которые выстроят заинтересованные стороны вокруг того, как системы на самом деле ведут себя в реальном мире.
Потому что если никто не понимает поведение во время выполнения, никто真正 не владеет риском.
Спасибо за отличное интервью, читатели, которые хотят узнать больше, должны посетить Wallarm.












