Connect with us

Більше витрат на безпеку штучного інтелекту не зменшує жодного з ваших ризиків штучного інтелекту

Лідери думок

Більше витрат на безпеку штучного інтелекту не зменшує жодного з ваших ризиків штучного інтелекту

mm

Бюджети безпеки штучного інтелекту зростають швидко. У багатьох організаціях вони зростають швидше, ніж системи, які вони призначені для захисту.

Ця диспропорція легко можна пропустити. Інвестиції в штучний інтелект продовжують прискорюватися, а глобальне приватне фінансування досягло $33.9 млрд у 2025 році. У той же час керівники з безпеки повинні давати звіт про нові ризики, пов’язані з поведінкою моделей, експозицією даних та маніпуляцією противником. Відповідь була передбачуваною: більше інструментів, більше засобів контролю та більший бюджет.

Це спокусительно перетворити це на розмову про вартість ведення бізнесу, просте питання про те, скільки організаціям потрібно витратити на захист штучного інтелекту. Це неправильний підхід до цієї нової проблеми. Замість цього організаціям потрібно розглянути, чи їх інвестиції в штучний інтелект дійсно забезпечують захист правильних інструментів.

У більшості підприємств штучний інтелект ще вводиться на рівні завдань. Команди експериментують з підсумковим аналізом, підтримкою кодування, аналітикою або автоматизацією робочих процесів для підвищення індивідуальної продуктивності. Ці інструменти забезпечують локальні вигоди, але вони рідко змінюють, як приймаються рішення або як працюють системи на більш широкому рівні. Ця прогалина починає проявлятися в результатах. Хоча впровадження штучного інтелекту є поширеним, лише близько 20% організацій повідомляють про значний вплив на свій фінансовий результат.

Інвестиції в безпеку зростають поряд з цими експериментами. Однак у багатьох випадках вони застосовуються до зростаючої колекції відокремлених інструментів, а не до цілісних систем, які формують, як працює бізнес. Штучний інтелект оцінюється на рівні завдань, захищається на рівні систем, але ніколи не проектується повністю на рівні робочих процесів, де створюється реальна вартість.

Впровадження штучного інтелекту розширюється швидше, ніж інтегрується

Більшість сучасних впроваджень штучного інтелекту вузькі за своєю суттю. Вони створені для прискорення окремих завдань, а не для зміни робочих процесів між командами чи системами.

Команда продажів може впровадити штучний інтелект для складання електронних листів або підсумкового аналізу дзвінків. Інженерні команди використовують його для прискорення генерації коду. Команди операцій експериментують з аналітикою або підтримкою прогнозування. Кожен з цих випадків використання забезпечує вимірювані вигоди з продуктивності на індивідуальному рівні, і це часто достатньо для виправдання початкових інвестицій.

Складність починається, коли ці ізольовані вигоди накопичуються.

Кожне впровадження вводить свої власні моделі, шаблони доступу до даних, API та залежності. З часом організації знаходять себе керуючими зростаючою екосистемою можливостей штучного інтелекту, які ніколи не призначалися для спільної роботи. Навіть зараз велика частина підприємств залишається на ранній стадії експериментів, а багато ініціатив ще не інтегровані в основні бізнес-операції.

Команди безпеки успадковують цю середовище, коли воно формується. Їм доручено захищати не одну систему, а постійно мінливу колекцію інструментів, інтеграцій та потоків даних, які розширюються з кожним новим експериментом. Без уніфікованої архітектури безпека стає заходом щодо покриття, а не контролю.

Реальний ризик не в окремих інструментах, а у фрагментації систем

З продовжуванням експериментів з штучним інтелектом очікування керівництва починають змінюватися. Ради директорів та виконавчі команди запитують, як зростання витрат на штучний інтелект перекладується у вимірювані бізнес-результати.

Коли ранні ініціативи не виправдовують очікувань, організації рідко сповільнюють свій темп. Вони розширюють свої зусилля. Запускаються більше пілотних проектів. Вводяться більше інструментів. Створюються більше інтеграцій у пошуках вартості, яка ще не матеріалізувалася. Прогнози вже свідчать про те, що більше половини проектів штучного інтелекту можуть зазнати невдачі у досягненні виробництва або наданні очікуваних результатів у найближчі роки.

Для команд безпеки цей цикл створює новий вид ризику.

Виклик уже не полягає лише у захисті окремих застосунків або моделей. Це керування середовищем, у якому базова система постійно змінюється. Кожний новий інструмент вводить додаткові ідентифікатори, потоки даних та поведінку моделей, які розширюють поверхню атаки до того, як захисники встигнуть повністю зрозуміти її.

У цьому контексті збільшення витрат на безпеку не обов’язково зменшує ризик. Воно може збільшити операційну складність замість цього. Захист фрагментованих систем вимагає більше інструментів, більше моніторингу та більше координації, але це не вирішує кореневу проблему, яка полягає в відсутності цілісної структури для впровадження та використання штучного інтелекту.

Витрати на безпеку стають стратегічними лише тоді, коли штучний інтелект стає операційним

Ми перебуваємо у чудовому місці завдяки інвестиціям у безпеку штучного інтелекту; ступінь інновацій астрономічний, а хоча майбутнє яскраве для випадків використання штучного інтелекту, інвестиції в безпеку часто відокремлені від місця, де штучний інтелект дійсно створює вартість.

Коли штучний інтелект впроваджується в основному як набір ізольованих інструментів продуктивності, зусилля з безпеки змушені слідувати за цією фрагментацією. Команди закінчують захистом десятків відокремлених застосунків, які мають обмежений вплив на основні бізнес-результати.

Більша вартість виникає, коли штучний інтелект інтегрований у робочі процеси, які формують, як працюють організації. Планування, прогнозування, розподіл ресурсів та операційне прийняття рішень – це місця, де штучний інтелект починає впливати на результати значним чином. Це також середовища, де інвестиції в безпеку стають більш стратегічними.

Захист відокремленого інструменту захищає завдання. Захист інтегрованої системи захищає бізнес-процес.

Це місце, де розрізнення між впровадженням на рівні завдань та проектуванням на рівні робочих процесів стає критичним. Штучний інтелект, який не інтегрований у процес прийняття рішень, буде боротися за надання вимірюваних результатів. Безпека, яка не узгоджена з цими системами прийняття рішень, буде боротися зі зменшенням значимого ризику.

Зміни повинні відбутися раніше, ніж пізніше

Організаціям не потрібно менше ініціатив штучного інтелекту. їм потрібно більш намірених ініціатив.

Перший зсув відбувається у тому, як оцінюється успіх штучного інтелекту. Якщо впровадження не змінює, як приймаються рішення або як рухається робота між командами, його вплив залишиться обмеженим, незалежно від того, наскільки широко воно впроваджено. Вимірювання успіху на рівні робочих процесів, а не на рівні завдань, забезпечує ясніший сигнал про те, де штучний інтелект дійсно забезпечує вартість.

Другий зсув відбувається у тому, як пріоритезуються інвестиції в безпеку. Замість розподілу засобів контролю по кожному експериментальному інструменту організації повинні концентрувати захист навколо систем, які впливають на планування, операції та прийняття рішень. Це середовища, де ризик і вартість перетинаються.

Третій зсув є структурним. Системи штучного інтелекту вводять нові форми власності, які виходять за рамки традиційних меж застосунків. Моделі, навчальні дані, потоки даних та вихідні дані, згенеровані штучним інтелектом, всі вимагають чіткої відповідальності. Без визначеної власності управління стає нестабільним, а пробіли у безпеці стають важчими для виявлення.

Взяті разом, ці зміни рухають організації від захисту діяльності до захисту результатів.

Будівництво систем штучного інтелекту, які можуть дійсно масштабуватися

Організації, які узгоджують впровадження штучного інтелекту з проектуванням на рівні робочих процесів, отримують ясліший шлях до вартості та контролю.

Ресурси безпеки стають більш ефективними, коли вони зосереджені на системах, які мають найбільше значення, а не розподілені по відокремлених експериментах. Керівництво отримує краще бачення того, як інвестиції в штучний інтелект перекладаються у операційний вплив. З часом програми штучного інтелекту стають більш стійкими, оскільки вони побудовані на структурованих системах, а не на накопичених інструментах.

Інвестиції в штучний інтелект не сповільнюються. Витрати на безпеку продовжуватимуть зростати поряд з ними. Різниця буде полягати в тому, як ці інвестиції застосовуються.

Організації, які продовжують масштабувати штучний інтелект на рівні завдань, знайдуть себе, захищаючи все більш розширювану поверхню відокремлених інструментів. Ті, хто проектує штучний інтелект на рівні робочих процесів, будуть захищати системи, які дійсно варті захисту.

Steve Povolny, VP of AI Strategy & Security Research, Exabeam є досвідченим фахівцем з дослідження безпеки з понад 15-річним досвідом управління командами з дослідження безпеки. Він має доведену репутацію визначення вразливостей та реалізації ефективних рішень для їх пом'якшення.