Connect with us

Лідери думок

Перегляд охорони для застосунків штучного інтелекту

mm

Коли застосунки штучного інтелекту виходять за межі простих чат-ботів до агентських систем, які можуть діяти від імені користувача, ризики зростають експоненціально. Агентські застосунки можуть виконувати дії за допомогою інструментів, і це відкриває нові вектори загроз для атакувальників, які можуть маніпулювати цими інструментами для зміни стану застосунків і даних користувачів.

Традиційні охоронні поручні та моделі безпеки були розроблені для вузьких, добре визначених загроз, але вони борються за масштабованість проти різноманітності та креативності сучасних методів атак. Ця нова реальність вимагає парадигмального зрушення: застосування штучного інтелекту для захисту штучного інтелекту, що дозволяє адаптивні та масштабовані заходи безпеки, які відповідають винахідливості та непередбачуваності сучасних противників.

Поняття розширення ризику

Штучний інтелект проникає в кожний шар програмного забезпечення – від CRM до календарів, електронної пошти, робочих процесів, браузерів та ін. – впроваджуючи інтелект всюди. Що почалося як розмовні помічники тепер стають автономними агентами, які можуть виконувати незалежні дії.

Прикладом є нові “агенти” OpenAI, які можуть брати участь в інтернеті або виконувати завдання онлайн. Ці можливості розблоковують величезну продуктивність, але також відкривають величезну, неознакомлену поверхню атаки. Ризики виходять за межі витоку даних і включають маніпуляцію поведінкою, ухилення моделі та атаки ін’єкції запитів – загрози, які еволюціонують динамічно та націлюються на логіку моделі, а не на її інфраструктуру.

Для підприємств це означає, що безпека повинна розвиватися так само швидко, як і штучний інтелект. Виклик для технологічних і безпекових лідерів полягає в тому, як захистити інновації без сповільнення їх, напруженість, яка довгий час існувала між командами безпеки та розробки штучного інтелекту.

Де традиційні охоронні поручні не справляються

Більшість поточних інструментів безпеки штучного інтелекту все ще покладаються на статичні, вузько натреновані моделі машинного навчання, розроблені для визнання конкретних типів атак. Кожен новий метод ухилення або ін’єкції запитів часто вимагає повторної навчання або розгортання окремої моделі. Цей реактивний підхід припускає, що зловмисники будуть поводитися передбачуваним чином. Однак правда полягає в тому, що атакувальники тепер використовують штучний інтелект, щоб генерувати адаптивні, креативні та швидкозмінні загрози, яких традиційні захисти не можуть передбачити.

Даже охоронні поручні, які вважаються найновішими, мають обмежений обсяг і можливості, будучи ефективними лише в сценаріях, для яких вони були натреновані. Старі парадигми вимагають навчання окремої моделі для кожної нової атаки, що є крихким і нестійким підходом, оскільки кількість потенційних технік експлуатації зростає до сотень.

До цього додається культурний розрив між командами безпеки та штучного інтелекту. Розробники штучного інтелекту часто розглядають безпеку як перешкоду – щось, що сповільнює їх швидкість – тоді як команди безпеки несуть відповідальність, якщо щось виходить не так. Ця відсутність співробітництва залишила багато організацій вразливими за конструкцією. Що потрібно, так це захист, який інтегрується безперешкодно в життєвий цикл штучного інтелекту, забезпечуючи нагляд без тертя.

Переворот сценарію: Використання штучного інтелекту для захисту штучного інтелекту

Щоб задовольнити ці виклики, з’являється новий парадигм безпеки: штучний інтелект, який атакує зловмисний штучний інтелект і захищає ваш штучний інтелект. Замість того, щоб покладатися на статичні правила або ручні підписи, цей підхід використовує генеративну та аналітичну потужність великих мовних моделей (LLM) для того, щоб і протестувати, і захистити системи штучного інтелекту.

  • Атака штучного інтелекту: LLM можуть симулювати широкий спектр поведінки противників, включаючи ухилення моделі, ін’єкцію запитів та зловживання агентами. Розгортуючи невідповідні або “злих” моделі для творчого тестування застосунків, організації отримують більш багату та реалістичну розуміння вразливостей до того, як атакувальники їх використовують.
  • Неперервний, адаптивний захист: Ті самі системи штучного інтелекту можуть бути натреновані на навчання з кожної атаки та автоматичне посилення захисту. Замість управління сотнями вузько орієнтованих моделей організації можуть розгорнути один масштабований захист, здатний розпізнавати та адаптуватися до різноманітних загроз, зберігаючи при цьому стабільну затримку та продуктивність.

Це позначає фундаментальне зрушення від ручного, моментального тестування до живих охоронних поручнів, які еволюціонують поряд з системами, які вони захищають.

Будівництво самозахисної екосистеми

Штучний інтелект, який захищає штучний інтелект, не тільки покращує виявлення, а й трансформує весь захист. Коли правильно інтегровані, ці системи можуть:

  • Масштабувати захист без зусиль, узагальнюючи для декількох типів атак.
  • Неперервно покращуватися, зустрічаючи нові загрози у виробництві.
  • Закрити розрив між командами штучного інтелекту та безпеки, забезпечуючи нагляд, який не перешкоджає інноваціям.
  • Надати видимість у складну поверхню ризику, введену агентською поведінкою, де системи штучного інтелекту діють автономно в цифрових середовищах.

Мета полягає в тому, щоб побудувати системи безпеки, які думають як атакувальники, передбачають їх рухи та еволюціонують так само швидко, як і вони.

Виклик адаптивного мислення

Промисловість знаходиться на розі перетину. Після початкового гіпу 2023-2024 років багато підприємств штучного інтелекту зазнали невдачі, оскільки вони зіткнулися з проблемами виробництва. Це не було через відсутність потенціалу, а через те, що інфраструктура та парадигми безпеки не могли за цим跟ати. Тепер, коли штучний інтелект інтегрується в критичні робочі процеси, наслідки незахищеного дизайну тільки збільшаться.

Організації повинні прийняти адаптивний підхід до безпеки, де системи штучного інтелекту безперервно контролюють, тести та зміцнюють інші системи штучного інтелекту. Це означає впровадження інтелектуальних охоронних поручнів з самого початку, а не додавання їх пізніше. Дурно думати про програмне забезпечення, яке не є рідним для штучного інтелекту, і небезпечно думати про штучний інтелект, який не є рідним для безпеки.

Живі охоронні поручні штучного інтелекту

Штучний інтелект – це нова основа програмного забезпечення, і як і будь-яка основа, його сила залежить від того, як добре він може витримувати стрес. Статичні захисти не можуть відповісти на момент. Наступна епоха безпеки буде належати самонавчальним системам (штучний інтелект, який захищає штучний інтелект), що відповідають швидкості, креативності та масштабу загроз, з якими вони стикаються. Тільки навчаючи штучний інтелект захищати себе, ми можемо забезпечити майбутнє, яке він допомагає нам будувати.

Girish Chandrasekar є Головою продукту в Straiker, допомагаючи компанії перейти від нуля до одного. Раніше він працював у команді продукту в Robust Intelligence (придбано Cisco), а до цього працював на технічних посадах у командах машинного навчання в Postmates і JPMorgan Asset Management.