Інтерв’ю
Адитья К Сood, Віце-президент з питань безпеки інженерії та стратегії штучного інтелекту, Aryaka – Серія інтерв’ю

Адитья К Сood (Ph.D) є Віце-президентом з питань безпеки інженерії та стратегії штучного інтелекту в компанії Aryaka. З більш ніж 16-річним досвідом, він надає стратегічне керівництво в сфері інформаційної безпеки, охоплюючи продукти та інфраструктуру. Доктор Сood цікавиться штучним інтелектом (AI), безпекою хмарних технологій, автоматизацією та аналізом шкідливого ПО, безпекою застосунків та безпечним проектуванням програмного забезпечення. Він є автором декількох статей для різних журналів та видань, включаючи IEEE, Elsevier, Crosstalk, ISACA, Virus Bulletin та Usenix.
Aryaka пропонує мережеві та безпекові рішення, надаючи Unified SASE як сервіс. Це рішення розроблено для поєднання продуктивності, гнучкості, безпеки та простоти. Aryaka підтримує клієнтів на різних етапах їхнього безпечного доступу до мережі, допомагаючи їм модернізувати, оптимізувати та трансформувати свої мережеві та безпекові середовища.
Розкажіть нам більше про свій шлях у сфері кібербезпеки та штучного інтелекту та про те, як це привело вас до вашої поточної посади в Aryaka?
Мій шлях у сфері кібербезпеки та штучного інтелекту почався з захоплення потенціалом технологій для вирішення складних проблем. На початку своєї кар’єри я зосередився на кібербезпеці, розвідці загроз та безпекових інженерних рішеннях, що дало мені солідну основу для розуміння того, як взаємодіють системи та де можуть бути уразливості. Це знайомство природно привело мене до глибшого занурення у сферу кібербезпеки, де я визнав критичну важливість захисту даних та мереж у все більш взаємопов’язаному світі. Коли технології штучного інтелекту з’явились, я побачив їхній величезний потенціал для трансформації кібербезпеки – від автоматизації виявлення загроз до передбачувальної аналітики.
Приєднання до Aryaka на посаду Віце-президента з питань безпеки інженерії та стратегії штучного інтелекту було ідеальним варіантом через лідерство компанії у сфері Unified SASE як сервісу, хмарних рішень WAN та інновацій. Моя посада дозволяє мені синтезувати свою пристрасть до кібербезпеки та штучного інтелекту для вирішення сучасних проблем, таких як безпечна гібридна робота, оптимізація SD-WAN та управління загрозами в реальному часі. Конвергенція штучного інтелекту та кібербезпеки в Aryaka дозволяє організаціям залишатися попереду загроз, забезпечуючи виняткову продуктивність мережі, і я радий бути частиною цієї місії.
Як мислитель у сфері кібербезпеки, як ви бачите, що штучний інтелект змінює безпековий ландшафт у найближчі роки?
Штучний інтелект знаходиться на порозі трансформації безпекового ландшафту, звільняючи нас від тягаря рутинних завдань та дозволяючи нам зосередитися на більш складних проблемах. Його здатність аналізувати великі набори даних в реальному часі дозволяє безпековим системам виявляти аномалії, закономірності та нові загрози з темпом, що перевершує людські можливості. Моделі AI/ML безперервно еволюціонують, підвищуючи свою точність у виявленні та обхіді впливів складних постійних загроз (APTs) та уразливостей нульового дня. Крім того, штучний інтелект має революціонізувати реагування на інциденти (IR) шляхом автоматизації повторюваних та часочутливих завдань, таких як ізоляція скомпрометованих систем або блокування шкідливої діяльності, суттєво скорочуючи час реакції та мінімізуючи потенційну шкоду. Крім того, штучний інтелект допоможе звузити розрив у сфері кібербезпеки, автоматизуючи рутинні завдання та підвищуючи прийняття рішень людиною, дозволяючи безпековим командам зосередитися на більш складних проблемах.
Однак противники швидко використовують ті самі можливості, які роблять штучний інтелект потужним оборонним інструментом. Кіберзлочинці все частіше використовують штучний інтелект для розробки більш складних загроз, таких як фішинг-атаки з використанням deepfake, адаптивної соціальної інженерії та штучного інтелекту, керованого шкідливим ПО. Ця тенденція призведе до “перегонів озброєння штучного інтелекту”, у яких організаціям потрібно буде безперервно інновувати, щоб випередити ці еволюціонуючі загрози.
Які ключові мережеві проблеми підприємства зіштовхуються при розгортанні застосунків штучного інтелекту, і чому ви вважаєте, що ці питання стають все більш критичними?
Підприємства, які розгортають застосунки штучного інтелекту, зіштовхуються з терміновими мережевими проблемами. Вимоглива природа робочих навантажень штучного інтелекту, які включають передачу та обробку величезних наборів даних в реальному часі, особливо для завдань обробки та навчання, створює негайну потребу у високій пропускній здатності та наднизькій затримці. Наприклад, застосунки штучного інтелекту в реальному часі, такі як автономні системи або передбачувальна аналітика, залежать від миттєвої обробки даних, де навіть найменша затримка може порушити результати. Ці вимоги часто перевершують можливості традиційних мережевих інфраструктур, що призводить до частих瓶окоуків продуктивності.
Масштабованість є критичною проблемою при розгортанні штучного інтелекту. Динамічна та непередбачувана природа робочих навантажень штучного інтелекту вимагає мереж, які можуть швидко адаптуватися до змінних вимог до ресурсів. Підприємства, які розгортають штучний інтелект у гібридних або мультихмарних середовищах, зіштовхуються з додатковою складністю, оскільки дані та робочі навантаження розподілені по різних місцях. Потреба в безперервній передачі даних та масштабуванні по цих середовищах очевидна, але складність досягнення цього без передових мережевих рішень є однаково очевидною. Надійність також має першорядне значення – системи штучного інтелекту часто підтримують критично важливі завдання, і навіть незначна простій або втрата даних може привести до суттєвих порушень або дефектної продукції штучного інтелекту.
Безпека та цілісність даних ще більше ускладнюють розгортання штучного інтелекту. Моделі штучного інтелекту залежать від великих обсягів чутливих даних для навчання та висновків, що робить безпечну передачу даних та захист від порушень або маніпуляцій першочерговим завданням. Ця проблема є особливо гострою в галузях з суворими вимогами щодо дотримання нормативних вимог, таких як охорона здоров’я та фінанси, де організації повинні дотримуватися нормативних зобов’язань поряд з потребами у продуктивності.
Підприємства все частіше приймають штучний інтелект, ці мережеві проблеми стають все більш критичними, підкреслюючи необхідність передових, готових до штучного інтелекту мережевих рішень, які пропонують високу пропускну здатність, низьку затримку, масштабованість та надійну безпеку.
Як платформа Aryaka вирішує підвищені вимоги до пропускної здатності та продуктивності робочих навантажень штучного інтелекту, особливо при управлінні навантаженням, спричиненим переміщенням даних, та потребою у швидкому прийнятті рішень?
Aryaka, з її інтелектуальною, гнучкою та оптимізованою мережевою інфраструктурою, унікально підходить для вирішення підвищених вимог до пропускної здатності та продуктивності робочих навантажень штучного інтелекту. Переміщення великих наборів даних між розподіленими місцями, такими як пристрої краю, центри даних та хмарні середовища, часто суттєво навантажує традиційні мережі. Рішення Aryaka забезпечує полегшення, динамічно маршрутизуючи трафік через найбільш ефективні та доступні шляхи, використовуючи декілька варіантів зв’язку для оптимізації пропускної здатності та зниження затримки.
Одним із ключових переваг рішення Aryaka є його здатність пріоритезувати критично важливі для штучного інтелекту дані через маршрутизацію, залежну від застосунків. Ідентифікуючи та пріоритезуючи задержкові робочі навантаження, такі як аналіз даних в реальному часі або висновок моделей машинного навчання, Aryaka забезпечує, що застосунки штучного інтелекту отримують необхідні мережеві ресурси для швидкого прийняття рішень. Крім того, рішення Aryaka підтримує динамічне розподілення пропускної здатності, дозволяючи підприємствам впевнено масштабувати ресурси вгору або вниз на основі вимог робочих навантажень штучного інтелекту, запобігаючи瓶окоукам та забезпечуючи постійну продуктивність навіть під час пікових навантажень.
Крім того, платформа Aryaka забезпечує можливості моніторингу та аналізу, пропонуючи видимість мережевої продуктивності та поведінки робочих навантажень штучного інтелекту. Цей проактивний підхід дозволяє підприємствам виявляти та вирішувати проблеми продуктивності до того, як вони вплинуть на роботу систем штучного інтелекту, забезпечуючи безперервну роботу. У поєднанні з передовими безпековими функціями, такими як CASB, SWG, FWaaS, шифрування від кінця до кінця, ZTNA та іншими, платформа Aryaka захищає цілісність даних штучного інтелекту.
Як прийняття штучного інтелекту вводить нові уразливості або поверхні атак у мережах підприємств?
Прийняття штучного інтелекту вводить нові уразливості та поверхні атак у мережах підприємств через унікальні способи, якими системи штучного інтелекту працюють та взаємодіють з даними. Одним із значних ризиків є великі обсяги чутливих даних, які системи штучного інтелекту вимагають для навчання та висновків. Якщо ці дані перехоплюються, маніпулюються або викрадаються під час передачі або зберігання, це може привести до порушень, корупції моделей або порушень вимог щодо дотримання нормативних вимог. Крім того, алгоритми штучного інтелекту вразливі до атак противників, коли зловмисники вводять спеціально створені вхідні дані (наприклад, змінені зображення або дані), призначені для того, щоб дезорієнтувати системи штучного інтелекту та змусити їх приймати неправильні рішення. Ці атаки можуть скомпрометувати критично важливі застосунки, такі як виявлення шахрайства або автономні системи, що призводить до серйозної оперативної або репутаційної шкоди. Прийняття штучного інтелекту також вводить ризики, пов’язані з автоматизацією та прийняттям рішень. Зловмисники можуть використати автоматизовані системи прийняття рішень, годуючи їх помилковими даними, що призводить до непередбачуваних результатів або оперативних порушень. Наприклад, атакувальники можуть маніпулювати потоками даних, використовуваними системами моніторингу на основі штучного інтелекту, маскуючи порушення безпеки або генеруючи помилкові сигнали тривоги, щоб відволікти увагу.
Інша проблема виникає з складності та розподіленої природи робочих навантажень штучного інтелекту. Системи штучного інтелекту часто включають взаємопов’язані компоненти по краях пристроїв, хмарних платформ та інфраструктури. Ця складна мережа взаємопов’язаності суттєво розширює поверхню атаки, оскільки кожен елемент та шлях спілкування представляє потенційний пункт входу для атакувальників. Скомпрометування пристрою краю, наприклад, може дозволити латеральний рух по мережі або надати шлях для порушення даних, які обробляються або передаються до централізованих систем штучного інтелекту. Крім того, незахищені API, часто використовувані для інтеграції застосунків штучного інтелекту, можуть виявити уразливості, якщо їх не належним чином захистити.
Підприємства все частіше залежать від штучного інтелекту для критично важливих функцій, потенційні наслідки цих уразливостей стають все більш серйозними, підкреслюючи термінову необхідність надійних заходів безпеки. Організації повинні діяти швидко, щоб вирішити ці проблеми, такі як тренування моделей штучного інтелекту з урахуванням противників, захист даних та прийняття архітектури з нульовим довірою для захисту середовищ, керованих штучним інтелектом.
Які стратегії або технології ви реалізуєте в Aryaka для вирішення цих специфічних для штучного інтелекту ризиків безпеки?
Платформа Aryaka використовує шифрування від кінця до кінця для захисту великих обсягів чутливих даних, які системи штучного інтелекту залежать. Ці заходи захищають kanal даних штучного інтелекту, запобігаючи перехопленню або маніпулюванню під час передачі між пристроями краю, центрами даних та хмарними послугами. Динамічний маршрутизаційний трафік ще більше підвищує безпеку та продуктивність, направляючи дані, пов’язані зі штучним інтелектом, найбільш безпечними та ефективними шляхами, пріоритезуючи критично важливі робочі навантаження для мінімізації затримки та забезпечення надійного прийняття рішень.
Рішення AI Observe від Aryaka моніторить мережевий трафік, аналізуючи журнали для підозрілої діяльності. Центральна видимість та аналітика, надані Aryaka, дозволяють організаціям моніторити безпеку та продуктивність робочих навантажень штучного інтелекту, проактивно виявляючи потенційні шкідливі дії та ризиковану поведінку, пов’язану з кінцевими користувачами, включаючи критично важливі сервери та хости. AI Observe використовує алгоритми машинного навчання для активації повідомлень про безпекові інциденти на основі серйозності, розрахованої за допомогою різних параметрів та змінних для прийняття рішень.
Рішення AI>Secure від Aryaka, яке буде представлено у другій половині 2025 року, дозволить організаціям розібрати трафік між кінцевими користувачами та кінцевими точками сервісів штучного інтелекту (наприклад, ChatGPT, Gemini, copilot тощо), щоб виявити атаки, такі як ін’єкції запитів, витік інформації та експлуатація бар’єрів. Крім того, суворі політики можуть бути реалізовані для обмеження спілкування з не затвердженими та санкційованими сервісами/застосунками штучного інтелекту. Крім того, Aryaka вирішує ризики безпеки, пов’язані зі штучним інтелектом, реалізуючи передові стратегії, які поєднують мережеві та безпекові заходи. Одним із критичних підходів є прийняття принципів нульового довірія (ZT), яке забезпечує суворе підтвердження для кожного користувача, пристрою та застосунку, який намагається взаємодіяти з робочими навантаженнями штучного інтелекту. Це особливо важливо у розподілених середовищах штучного інтелекту, де робочі навантаження охоплюють пристрої краю, хмарні платформи та інфраструктуру на місці, роблячи їх вразливими до несанкціонованого доступу та латерального руху атакувальників.
При використанні цих комплексних заходів Aryaka допомагає підприємствам захистити свої середовища штучного інтелекту від еволюційних ризиків, забезпечуючи масштабовані та ефективний розгортання штучного інтелекту.
Чи можете ви поділитися прикладами того, як штучний інтелект використовується як для посилення безпеки, так і як інструмент для потенційних компрометацій мережі?
Штучний інтелект відіграє важливу роль у кібербезпеці. Він є потужним інструментом для підвищення мережевої безпеки та ресурсом, який противники можуть використати для складних атак. Визнання цих застосунків підкреслює трансформаційний потенціал штучного інтелекту у сфері кібербезпеки та дозволяє нам орієнтуватися у ризиках, які він вводить.
Штучний інтелект революціонізує мережеву безпеку шляхом передового виявлення та попередження загроз. Моделі штучного інтелекту аналізують великі обсяги мережевого трафіку в реальному часі, виявляючи аномалії, підозрілу поведінку або індикатори компрометації (IOCs), які можуть залишитися непоміченими традиційними методами. Наприклад, системи, керовані штучним інтелектом, можуть виявляти та мінімізувати атаки типу “відмова у обслузі” (DDoS), аналізуючи мережеві протоколи та реагуючи автоматично на ізоляцію шкідливого джерела. Крім того, потенціал штучного інтелекту у поведінковій аналітиці є суттєвим, створюючи профіль нормальної поведінки користувача для виявлення внутрішніх загроз або компрометації облікових записів. Але його найбільш потужний застосунок полягає у передбачувальній аналітиці, де системи штучного інтелекту прогнозують потенційні уразливості або вектори атак, дозволяючи створювати проактивні захисти до того, як загрози матеріалізуються.
З іншого боку, кіберзлочинці використовують штучний інтелект для розробки більш складних атак. Шкідливе ПО, кероване штучним інтелектом, може адаптуватися, щоб避нути традиційні засоби виявлення, змінюючи свої характеристики динамічно. Атакувальники також використовують штучний інтелект/машинне навчання для посилення фішингових кампаній, створюючи переконливі фальшиві електронні листи або повідомлення, адаптовані до окремих цілей за допомогою збору та аналізу даних. Одним із тривожних трендів є deepfake у соціальній інженерії. Аудіо чи відео, створені штучним інтелектом, можуть переконливо імітувати виконавців або довірених осіб для маніпулювання співробітниками з метою розкриття конфіденційних даних або авторизації фальшивих транзакцій. Крім того, атаки противників на інші системи штучного інтелекту безпосередньо вводять маніпульовані дані, щоб спричинити неправильні передбачення або рішення, які можуть порушити критично важливі операції, що залежать від автоматизації, керованої штучним інтелектом.
Двоїстий застосунок штучного інтелекту у сфері кібербезпеки підкреслює важливість проактивного, багаторівневого безпекового плану. Хоча організації повинні використовувати потенціал штучного інтелекту для посилення своїх захистів, також важливо залишатися пильним щодо потенційного зловживання.
Як рішення Unified SASE як сервіс від Aryaka виділяється серед традиційних мережевих та безпекових рішень?
Рішення Unified SASE як сервіс від Aryaka розроблено для масштабування з вашим бізнесом. На відміну від традиційних систем, які залежать від окремих інструментів для мереж (наприклад, MPLS) та безпеки (наприклад, брандмауерів та VPN), Unified SASE інтегрує ці функції, пропонуючи безперервне та масштабоване рішення. Це злиття спрощує управління та забезпечує послідовні безпекові політики та продуктивність для користувачів, незалежно від місця розташування. Використовуючи архітектуру, засновану на хмарі, Unified SASE усуває потребу у складному обладнанні на місці, знижує витрати та дозволяє підприємствам швидко адаптуватися до сучасних гібридних робочих середовищ.
Одним із ключових відмінностей Aryaka є її здатність підтримувати принципи нульового довірія (ZT) у масштабі. Вона забезпечує контроль доступу на основі ідентифікації, постійно перевіряючи довіру користувача та пристрою перед надання доступу до ресурсів. У поєднанні з можливостями, такими як Безпекові шлюзи Web (SWG), Брокер доступу до хмари (CASB), Системи виявлення та попередження вторгнень (IDPS), Брандмауери нового покоління (NGFW) та мережеві функції, Aryaka забезпечує надійний захист проти загроз, одночасно захищаючи конфіденційні дані по розподіленим середовищам. Її здатність інтегрувати штучний інтелект ще більше підвищує виявлення та реагування на загрози, забезпечуючи швидше та більш ефективне мінімізування безпекових інцидентів.
Aryaka підвищує досвід користувача та продуктивність. Unified SASE використовує програмно визначену широкосмугову мережу (SD-WAN) для оптимізації маршрутизації трафіку, забезпечуючи низьку затримку та високошвидкісні з’єднання. Це особливо критично для організацій, які приймають хмарні застосунки та роботу на відстані. Надавши безпеку та продуктивність з єдиної платформи, Unified SASE мінімізує складність, покращує масштабованість та забезпечує, що організації можуть задовольняти вимоги сучасних, динамічних ІТ-ландшафтів.
Чи можете ви пояснити, як архітектура OnePASS™ від Aryaka підтримує робочі навантаження штучного інтелекту, забезпечуючи при цьому безпечну та ефективну передачу даних?
Архітектура OnePASS™ від Aryaka підтримує робочі навантаження штучного інтелекту, інтегруючи безпечне, високопродуктивне мережеве підключення з функціями безпеки та оптимізації даних. Робочі навантаження штучного інтелекту часто передаються великі обсяги даних між розподіленими середовищами, такими як пристрої краю, центри даних та хмарні платформи штучного інтелекту. OnePASS™ забезпечує, що ці потоки даних є ефективними та безпечними, використовуючи глобальну приватну магістраль та можливості Secure Access Service Edge (SASE) від Aryaka.
Глобальна приватна магістраль забезпечує низькозатримку, високопропускну підключення, яке є критично важливим для робочих навантажень штучного інтелекту, які вимагають обробки даних в реальному часі та прийняття рішень. Ця оптимізована мережа забезпечує швидку та надійну передачу даних, уникнувши瓶окоуків, пов’язаних із публічним інтернет-з’єднанням. Архітектура також використовує передові техніки оптимізації WAN, такі як дедуплікація та стиснення даних, для подальшого підвищення ефективності та зниження навантаження на мережеві ресурси. Це ідеально підходить для великих наборів даних та частих оновлень моделей, пов’язаних з операціями штучного інтелекту, що забезпечує впевненість у продуктивності системи.
З точки зору безпеки архітектура OnePASS™ від Aryaka забезпечує каркас нульового довірія, забезпечуючи, що всі потоки даних аутентифіковані, зашифровані та безперервно моніторяться. Інтегровані безпекові функції, такі як Безпекові шлюзи Web (SWG), Брокер доступу до хмари (CASB) та системи попередження вторгнень (IPS), захищають чутливі робочі навантаження штучного інтелекту від кіберзагроз. Крім того, забезпечуючи виконання політики на рівні краю, OnePASS™ мінімізує затримку, одночасно забезпечуючи, що безпекові контролюються послідовно по розподіленим середовищам, забезпечуючи відчуття безпеки у пильності системи.
Архітектура одного проходу Aryaka інтегрує всі необхідні безпекові функції у єдину платформу. Це дозволяє здійснювати реальний аналіз та обробку мережевого трафіку без потреби у декількох безпекових пристроях. Це поєднання безпечного, низькозатримкового підключення та потужного захисту від загроз робить архітектуру OnePASS™ від Aryaka унікально підходящою для сучасних робочих навантажень штучного інтелекту.
Які тенденції ви бачите у сфері штучного інтелекту та мережевої безпеки, коли ми рухаємося до 2025 року та далі?
Як ми рухаємося до 2025 року та далі, штучний інтелект відіграє ключову роль у мережевій безпеці. Системи виявлення загроз, керованих штучним інтелектом, продовжуватимуть вдосконалюватися, використовуючи штучний інтелект/машинне навчання для ідентифікації закономірностей шкідливої діяльності з неперевершеною швидкістю та точністю. Ці системи будуть видатними у виявленні уразливостей нульового дня та складних атак, таких як складні постійні загрози (APTs). Штучний інтелект також буде驱увати автоматизацію у реагуванні на інциденти, що повинно заспокоїти аудиторію щодо ефективності майбутніх систем безпеки. Ця автоматизація дозволить системам Оркестрації, Автоматизації та Реагування на Безпеку (SOAR) нейтралізувати загрози автономно, мінімізуючи час реакції та знижуючи потенційну шкоду. Крім того, розвиток квантових обчислень може підірвати існуючі стандарти шифрування у мережевій безпеці, спонукаючи галузь до переходу на квантобезпечне шифрування.
Однак зростаюча інтеграція штучного інтелекту у мережеву безпеку вводить проблеми. Кіберзлочинці використовують можливості штучного інтелекту для розробки більш складних атак, включаючи фішингові схеми та еволюційне шкідливе ПО. Через ризики упередженості або неправильного навчання моделей уразливості моделей штучного інтелекту, які стосуються дефектів у проектуванні або реалізації систем штучного інтелекту, ймовірно, збільшаться. Це призведе до експлуатації моделей штучного інтелекту за допомогою нових технік маніпулювання даними та введення противників. Крім того, прийняття штучного інтелекту покращить виявлення уразливостей безпеки у бібліотеках та пакетах, використовуваних у ланцюгах поставок програмного забезпечення.
Ми також очікуємо, що інструменти, керовані штучним інтелектом, дозволять краще співробітництво між безпековими інструментами, командами та організаціями. Рішення, орієнтовані на штучний інтелект, створять персоналізовані моделі безпеки, роблячи аудиторію впевненою у тому, що їхні безпекові потреби задовольняються. Ці моделі створюватимуть індивідуальні безпекові політики на основі ролей користувачів та їхньої поведінки. Країни будуть співпрацювати у створенні глобальної кібербезпекової рамки для технологій штучного інтелекту.












