Лідери думок
LLMs і сервери MCP: Нова схема для безпечного ШІ у віддаленому доступі

Дедалі більше організацій приймають великі мовні моделі (LLMs). LLMs досконало інтерпретують природну мову, керують усуненням неполадок та автоматизують повторювані, рутинні завдання, які сповільнюють адміністраторів. Коли помічник ШІ може прийняти інструкцію, наприклад «підключіть мене до основної кластеру Linux і перевірте невдалі входи», і негайно виконати повністю оркестровані дії, виграші в ефективності та продуктивності є очевидними.
Як частина цього тренду, LLMs знаходять свій шлях у деякі з найбільш чутливих куточків операцій з інформаційною технологією, включаючи інструменти, на які команди покладаються для управління віддаленими підключеннями та привілейованим доступом у гібридних, хмарних та локальних середовищах. Системи віддаленого доступу розташовані на перетині довіри, ідентичності та оперативного контролю. Вони керують сесіями адміністраторів, забезпечують аутентифікацію та підключають чутливі робочі навантаження до осіб, відповідальних за їхнє функціонування.
Чому ШІ потребує посередницького шару у віддаленому доступі
Це розширення LLMs у привілейовані робочі процеси є зручним, але також проблематичним. Для виконання команди або підключення до хоста деякі інструменти ШІ просто отримують облікові дані та передають їх через LLM для використання нижче. Це є швидким шляхом, але також потенційно небезпечним. Якщо модель отримує паролі або ключі, то весь привілейований кордон руйнується. Організація втрачає контроль над управлінням обліковими даними, аудитування стає ненадійним, а LLM стає новим, непрозорим актором з доступом до серця середовища.
Крім того, моделі можуть бути під впливом маніпульованих входів, що робить експозицію облікових даних ще ризикованішою. Крім цього, апетит LLMs до контекстних даних робить їх ризикованими компаньйонами для систем, які охороняють ключі, токени та адміністративні шляхи. У кінцевому підсумку, LLMs (та пов’язані з ними інструменти ШІ та моделі, які використовують їх) можуть бути надзвичайно корисними, але їм ніколи не слід дозволяти володіти або обробляти секрети. Вони просто не достатньо зрілі, щоб бути довіреними в цьому сенсі.
У світлі цих проблем та уразливостей, центральне питання тепер висить для CIO, CISO та лідерів операцій: Як ми можемо дозволити та позиціонувати LLMs, щоб вони допомагали нам, але без дозволу їм наблизитися до наших привілейованих робочих процесів?
На щастя, з’являється відповідь, яка перетворює архітектурні уразливості на сильні сторони: Сервери Протоколу Моделі Контексту (MCP).
Сервери MCP: Переосмислення того, як LLMs взаємодіють з інфраструктурою
Сервери MCP діють як безпечні посередники – ефективно «повітряний замок» – що дозволяють LLMs запитувати дії, але без дотику до облікових даних або привілейованих шляхів, які ці дії вимагають. Коли організації просуваються глибше в операції, підтримувані ШІ, підходи типу MCP з’являються як схема для безпечної, масштабованої інтеграції.
Сервери MCP вводять розділення проблем, яке багато архітекторів безпеки давно вважали необхідним: ШІ допомагає, але контрольована система виконує. Замість надання LLM повноважень діяти безпосередньо, модель обмежена вираженням наміру (наприклад, «підключіть мене сюди», «зберіть журнали», «перевірте цю політику»), тоді як сервер MCP інтерпретує ці запити, застосовує політику та маршрутизує їх через перевірені інструменти. Що найважливіше, цей підхід відповідає принципам, описаним у Ністовському кадровому складі управління ризиками ШІ, який підкреслює кордони інструментів, посередницькі дозволи та людську ескалацію.
Що робить цей дизайн особливо впізнаваним, то це те, що LLM ніколи не отримує привілейований матеріал. Аутентифікація обробляється внутрішньо через безпечне введення облікових даних. Як результат, LLM бачить тільки результати, ніколи не самі секрети. LLM може описати, що сталося, допомогти у вирішенні проблем та провести людину через наступні кроки, але він не може аутентифікуватися самостійно.
Дослідження безпеки все частіше підкреслюють, що транспортний шар між моделями ШІ та локальними інструментами є критичною частиною поверхні атаки. Наприклад, OWASP’s Top 10 для застосунків великих мовних моделей підкреслює, як небезпечні взаємодії плагінів – особливо ті, які експонуються через відкриті локальні HTTP-ендпоінти – можуть дозволити недовіряним локальним процесам спровокувати привілейовані дії. Архітектура типу MCP уникає цього, покладаючись на канали, що забезпечуються операційною системою, з обмеженням користувача, такі як іменовані канали, які забезпечують сильнішу ізоляцію. Цей підхід відповідає ENISA’s ширшим попередженням про небезпечні точки прикріплення ШІ та ризики, які вони вводять у середовищах з високими привілеями.
Інша ключова перевага серверів MCP полягає в можливості виконання дій всередині віддалених сесій. Використовуючи безпечні віртуальні канали або еквівалентні механізми, сервери MCP можуть виконувати операції безпосередньо в середовищах RDP або SSH, проте без використання крихких, обхідних скриптів MFA. Цей підхід поєднує зручність з управлінням: адміністратори отримують потужну автоматизацію, але без жертвування принципами Zero Trust.
Всі ці характеристики переозначають, що таке «безпечна інтеграція ШІ». Замість обгортання ШІ навколо чутливих систем, організації розміщують посередницький шар між ними, визначаючи, чого ШІ дозволено запитувати та отримувати – і саме так же важливо, чого він ніколи не повинен бачити.
Операційні вигоди від архітектур LLM + MCP
Операційний прибуток цього дизайну є суттєвим. Використовуючи посередництво ШІ через MCP, команди IT можуть оркеструвати налаштування середовища, стандартизацію конфігурації та завдання з多хи сесіями, використовуючи просту природну мову. Це має потенціал суттєво скоротити час між ідентифікацією проблеми та її вирішенням; особливо в гібридних середовищах, де перемикання контексту зазвичай сповільнює все.
Ці поліпшення також відповідають ширшим промисловим прогнозам та рекомендаціям. Gartner вказує на операції IT, підтримувані LLM, як на основний прискорювач для управління гібридною інфраструктурою, допомагаючи командам працювати швидше без жертвування управлінням. Модель аналізує журнали, підсумовує складні набори даних та проводить людей через кроки усунення неполадок – все це, доки шар MCP забезпечує, щоб кожна дія була сумісною та відстежуваною.
Результатом є не тільки більша швидкість, але й сильніше управління. Коли LLM постійно маршрутизує завдання через ті самі посилені шляхи, організації відкривають надійні сліди аудиту, відтворювані робочі процеси та ясну атрибуцію між людською та діяльністю ШІ. Журнали включають промпти, виклики інструментів, деталі сесій та посилання на політику – все це дає командам з відповідності прозорість, яку вони все частіше потребують та очікують у середовищах, керованих ШІ.
Є також культурні вигоди цього підходу. Віддавши «труди» (наприклад, огляд журналів, повторювані перевірки, монотонні адміністративні кроки тощо), команди IT можуть змісти свою енергію та фокус до роботи вищої цінності. Це може часто покращити як ефективність, так і моральний дух; особливо в операційних групах, які розтягнуті тонко гібридним розширенням інфраструктури.
Нарешті, оскільки архітектури MCP можуть підтримувати кілька LLMs, організації не змушені мати справу з одним постачальником. Вони можуть вибирати комерційні, відкриті або локальні моделі, залежно від регуляторних потреб та переваг управління даними.
Безпекові ризики, які ще потребують уваги
Хоча вигоди, які ми дослідили, є суттєвими – і в деяких аспектах трансформаційними – це необхідно та відповідальне вказати, що навіть з безпечним посередницьким шаром, середовища, підтримувані LLM не є без ризику. Є чотири тривожні проблеми, які потрібно підкреслити:
- Як зазначено раніше, ін’єкція промпта – як прямого, так і непрямого – залишається однією з найбільших проблем, і продовжує бути однією з найбільш докладно задокументованих класів атак проти LLMs.
- Експозиція метаданих є іншою проблемою. Хоча сервери MCP захищають облікові дані, якщо команди не забезпечують сильні практики мінімалізації даних, промпти та відповіді все ще можуть витікати імена хостів, внутрішні шляхи та топологічні моделі.
- Системи типу MCP додають нові ідентичності машин: сервери інструментів, віртуальні канали, процеси агентів. За даними промислових досліджень, ідентичності машин значно перевищують кількість людських ідентичностей у багатьох організаціях, а неправильне управління цими ідентичностями є зростаючим джерелом порушень.
- Нарешті, ланцюг постачання ШІ не можна ігнорувати. Оновлення моделей, розширення інструментів та шари інтеграції вимагають постійного підтвердження. Аналіз ENISA підкреслює, що системи ШІ вводять ширшу та більш хрупку ланцюг постачання, ніж традиційні стеки програмного забезпечення.
Наступні 12 місяців: Практичний шлях вперед
Організації, які досліджують автоматизацію LLM у привілейованих середовищах, повинні розглядати посередництво типу MCP як очікуваний базовий рівень. У найближчий рік лідери можуть зробити кілька практичних кроків, які включають:
- Установлення внутрішньої моделі управління, яка визначає, які LLMs затверджені та які дані їм дозволено доступ.
- Забезпечення того, щоб всі дії ШІ у привілейованих середовищах маршрутизувалися через шар типу MCP, а не взаємодіють з обліковими даними безпосередньо.
- Інтеграція робочих процесів, ініційованих ШІ, у наявні кадри PAM.
- Прийняття політики як коду для визначення та тестування кордонів інструментів.
- Приоритет мінімалізації даних.
- Включення червоних команд ШІ, зосереджених на маніпуляції промптами, поведінці моделі та локальному зміцненні інтерфейсу.
Останнє слово
LLMs змінюють віддалений доступ та привілейовані операції, пропонуючи нові рівні швидкості, керівництва та автоматизації. Однак безпечне розблокування цього потенціалу вимагає дисциплінованого архітектурного підходу: такого, який розміщує безпечний, аудитований посередницький шар між моделями ШІ та чутливими системами. Сервери MCP забезпечують цю структуру. Вони дозволяють ШІ допомагати без «передачі ключів», поєднуючи інновації з управлінням таким чином, який відповідає сучасним очікуванням Zero Trust.
Для організацій, які хочуть відповідально та прибутково використовувати ШІ, дизайни типу MCP представляють практичну, перспективну схему – одну, де LLMs посилюють людську експертизу, а не ненавмисно компрометують безпеку привілейованого доступу та робочих процесів.












