Лидеры мнений
Защита цепочки поставок программного обеспечения с помощью ИИ

Не секрет, что программное обеспечение является частью нашей повседневной жизни. Мы используем его, чтобы поддерживать наш график, общаться с друзьями и семьей, управлять нашими финансами и выполнять повседневные задачи на работе. Удобство и скорость, которые оно предлагает нам, также предлагаются киберпреступникам. Особенно в последние несколько лет, невозможно игнорировать влияние кибератак, которые парализовали коммунальные услуги, заморозили операции крупных компаний, раскрыли высоко конфиденциальную личную и конкурентную информацию и были использованы для получения миллионов и миллионов в виде выкупа в совокупности.
Преимущества и проблемы ИИ
Искусственный интеллект (ИИ) создал новые возможности для нас в коммерции и повседневной эффективности, и он сделал то же самое для киберпреступников. Год за годом мы видим увеличение масштаба и сложности атак. С появлением инновационных технологий, таких как сети края – которые позволяют перейти к следующей фазе эволюции таких вещей, как автономные автомобили и 6G – мы также создаем больше векторов атаки для злоумышленников. Теперь ясно, что кибербезопасность не только необходима для защиты основы нашей жизни сегодня, но и для защиты успеха нашего будущего. Безопасность, основанная на ИИ, является незаменимой для этого вызова.
Отражая то, что он делает для нападающих, ИИ служит умножителем силы для защитников. Масштаб является одним из великих двигателей бизнеса, конечно, но также сложность, особенно когда речь идет о сетях. ИИ может увеличить возможности хорошей команды безопасности экспоненциально, позволяя им находить, расставлять приоритеты и устранять уязвимости сети, которые могли бы быть потеряны в стоге сена раньше. Точность является ключом здесь: расставляя приоритеты наиболее опасных рисков с помощью ИИ, команды безопасности могут прогрессивно уменьшать риск на постоянной основе.
За пределами более технических аспектов, ИИ, объединенный с шагами, такими как консолидация безопасности, генерирует огромные выгоды, когда речь идет о пользовательском опыте. Вместо того, чтобы осваивать множество различных (и иногда довольно арканых) инструментов с ограниченной взаимодействием и отдельными порталами, пользователи уполномочены инструментами ИИ работать в интуитивном, разговорном интерфейсе. Критически, это позволяет командам работать из централизованной панели стекла, предлагая единственное окно во всю сеть, из которого можно стратегировать и оркестрировать безопасность.
Это создает эффективность рабочего процесса, которую невозможно воспроизвести без консолидации и ИИ. Конечно, мы взаимодействуем с ИИ в его программной форме. Что означает, что он не застрахован от эксплуатации. Защита ИИ – не только в безопасности, но и в операционных инструментах – должна быть приоритетом.
На самом деле, модели ИИ сами становятся целью, поскольку противники стремятся повлиять на то, как ИИ обучается и работает, отравляя данные и находя и эксплуатируя слабости直接 через подсказки. Они могут использовать технологию глубоких подделок, чтобы подорвать такие меры безопасности, как голосовые и видеочаты. Они развертывают генеративный ИИ для создания грамматически совершенных приманок для социальной инженерии. Специализированные инструменты ИИ могут сканировать сети, чтобы найти и эксплуатировать уязвимости в беспрецедентном масштабе. Есть несколько ключевых шагов, которые организации должны предпринять, чтобы защитить свое использование ИИ.
Преимущества нулевого доверия для искусственного интеллекта
Прежде всего, важно строго регулировать доступ к услугам ИИ и данным. Нулевое доверие к сетевому доступу (ZTNA) является неотъемлемой частью большинства централизованных, основанных на ИИ платформ безопасности, и это одна из наиболее важных. Без тщательной сегментации компании остаются уязвимыми для нападения, который может войти через любой из векторов – чаще всего скомпрометированные учетные данные – и затем переместиться в наиболее прибыльные и вредные операции и данные. С нулевым доверием каждому человеку предоставляется только тот доступ, который ему необходим для выполнения своей работы, и не более, ограничивая последствия любого одного несанкционированного доступа. За пределами этого, нулевое доверие также может выявить поведение пользователя, которое выходит за рамки его обычной сферы, поэтому даже самые целевые ситуации компрометации пользователей могут быть быстро выявлены и устранены.
ZTNA необходимо объединить с другими, специфичными для ИИ мерами безопасности. Защита трубопровода ИИ, чтобы организации имели хорошее понимание данных, которые они потребляют, их происхождения и их конкретной полезности, а не всасывают все, что доступно, является приоритетом. Образование пользователей будет все более важным, поскольку инструменты ИИ, особенно генеративные инструменты вроде ChatGPT, распространяются на повседневных, не технических сотрудников. Установление протокола для безопасных подсказок является примером, чтобы сотрудники не случайно загрузили коммерческие секреты, конкурентную разведку или другие конфиденциальные данные в публичные движки ИИ. Мы уже видели влияние, которое это может оказать на компании, даже до такой степени, что это может аннулировать патенты.
ИИ – это больше, чем просто проходящая мода. У него есть характеристики фундаментальной технологии, на которой можно построить инновации будущего. Но чтобы реализовать эти выгоды, безопасность становится первостепенным стратегическим объектом, двигателем инноваций, а не после мысли. Реализация централизованных, основанных на ИИ систем безопасности для защиты использования ИИ является первым шагом к будущему. Используя безопасность ИИ таким образом, организации могут эффективно использовать свой полный стек инструментов, чтобы быть более эффективными и стимулировать лучшие операции, качество, рост и развитие.












