Connect with us

LLMs и серверы MCP: новый план для безопасного ИИ в удаленном доступе

Лидеры мнений

LLMs и серверы MCP: новый план для безопасного ИИ в удаленном доступе

mm

Растущее число организаций принимает крупные языковые модели (LLMs). LLMs отлично справляются с интерпретацией естественного языка, руководством по устранению неполадок и автоматизацией повторяющихся, рутинных задач, которые замедляют работу администраторов. Когда помощник ИИ может выполнить инструкцию, такую как «подключить меня к основному кластеру Linux и проверить неудачные входы», и сразу же выполнить полностью оркестрованные действия, выгоды в эффективности и производительности неоспоримы.

В рамках этой тенденции LLMs находят свое место в некоторых из самых чувствительных уголков ИТ-операций, включая инструменты, которые команды используют для управления удаленными подключениями и привилегированным доступом в гибридных, облачных и локальных средах. Системы удаленного доступа находятся на пересечении доверия, идентификации и операционного контроля. Они управляют сеансами администраторов, обеспечивают аутентификацию и подключают чувствительные рабочие нагрузки к людям, ответственным за их работу.

Почему ИИ нуждается в посредническом слое в удаленном доступе

Этот расширение LLMs в привилегированные рабочие процессы удобно, но также проблематично. Чтобы выполнить команду или подключиться к хосту, некоторые инструменты ИИ просто извлекают учетные данные и передают их через LLM для использования вниз по потоку. Это удобная обходная дорога, но также и потенциально опасная. Если модель получает пароли или ключи, то вся граница привилегий разрушается. Организация теряет контроль над управлением учетными данными, аудит становится ненадежным, и LLM становится новым, непрозрачным актором с доступом к сердцу среды.

Кроме того, модели могут быть подвержены манипулированию входными данными, что делает экспозицию учетных данных еще более рискованной. Кроме того, аппетит LLMs к контекстным данным делает их рискованными спутниками для систем, которые охраняют ключи, токены и административные пути. В конечном итоге, LLMs (и связанные с ними инструменты и модели ИИ, которые используют их) могут быть невероятно полезными, но им никогда не следует разрешать владеть или обрабатывать секреты. Они просто не достаточно зрелые, чтобы быть доверенными в этом отношении.

В свете этих проблем и уязвимостей, центральный вопрос теперь возникает для CIO, CISO и лидеров операций: Как мы можем включить и позиционировать LLMs, чтобы они помогали нам, но без того, чтобы они слишком близко подходили к нашим привилегированным рабочим процессам?

К счастью, ответ появляется, который превращает архитектурные уязвимости в сильные стороны: серверы протокола контекста модели (MCP).

Серверы MCP: переопределение того, как LLMs взаимодействуют с инфраструктурой

Серверы MCP действуют как безопасные посредники – по сути, «воздушный замок» ИИ – которые позволяют LLMs запрашивать действия, но без того, чтобы они когда-либо касались учетных данных или привилегированных путей, необходимых для этих действий. Когда организации продвигаются глубже в операции, содействуемые ИИ, подходы, подобные MCP, появляются как план для безопасной, масштабируемой интеграции.

Серверы MCP вводят разделение проблем, которое многие архитекторы безопасности давно утверждают, что это необходимо: ИИ помогает, но контролируемая система выполняет. Вместо того, чтобы давать LLM полномочия действовать直接, модель ограничивается выражением намерения (например, «подключить сюда», «собрать журналы», «проверить эту политику»), в то время как сервер MCP интерпретирует эти запросы, применяет политику и маршрутизирует их через проверенные инструменты. Важно, что этот подход соответствует принципам, описанным в рамочном документе NIST по управлению рисками ИИ, который подчеркивает границы инструментов, посреднические разрешения и человеческую эскалацию, контролируемую человеком.

Что делает этот дизайн особенно воздействующим, так это то, что LLM никогда не получает привилегированный материал. Аутентификация обрабатывается внутри через безопасную инъекцию учетных данных. В результате LLM видит только результаты, никогда не видит сами секреты. LLM может описать, что произошло, помочь в устранении неполадок и руководить человеком через следующие шаги, но он не может аутентифицироваться самостоятельно.

Исследования безопасности все чаще подчеркивают, что транспортный слой между моделями ИИ и локальными инструментами является критической частью поверхности атаки. Например, OWASP’s Top 10 для приложений LLM подчеркивает, как не安全ные взаимодействия плагинов – особенно те, которые обнажаются через открытые конечные точки localhost HTTP – могут позволить не заслуживающим доверия локальным процессам запускать привилегированные действия. Архитектура, подобная MCP, избегает этого, полагаясь на каналы, обеспеченные ОС, в которых участвуют пользователи, такие как именованные каналы, которые обеспечивают более сильную изоляцию. Этот подход соответствует более широким предупреждениям ENISA о не безопасных точках подключения ИИ и рисках, которые они вводят в средах с высокими привилегиями.

Еще одним ключевым преимуществом серверов MCP является возможность выполнения действий внутри удаленных сеансов. Используя безопасные виртуальные каналы или эквивалентные механизмы, серверы MCP могут выполнять операции напрямую в средах RDP или SSH, но без использования хрупких, обходящих MFA скриптов. Этот подход сочетает удобство с управлением: администраторы получают мощную автоматизацию, но без жертвования принципами Zero Trust.

Вместе эти характеристики переопределяют, что такое «безопасная интеграция ИИ». Вместо того, чтобы обертывать ИИ вокруг чувствительных систем, организации размещают укрепленный слой между ними, определяя, о чем ИИ может просить и получать – и что же он никогда не должен видеть.

Операционные выгоды от архитектур LLM + MCP

Операционная отдача от этого дизайна значительна. Используя посредничество ИИ через MCP, команды ИТ могут оркестрировать настройку среды, стандартизацию конфигурации и задачи нескольких сеансов, используя простой естественный язык. Это имеет потенциал значительно сократить время между выявлением проблемы и ее решением; особенно в гибридных средах, где переключение контекста обычно замедляет все.

Эти улучшения также соответствуют более широким прогнозам и рекомендациям отрасли. Gartner указывает на операции ИТ, содействуемые LLM, как на основной ускоритель для управления гибридной инфраструктурой, помогающий командам работать быстрее без жертвования управлением. Модель анализирует журналы, суммирует сложные наборы данных и руководит людьми через шаги по устранению неполадок – все это происходит, пока слой MCP обеспечивает, чтобы каждое действие было соответствующим и отслеживаемым.

Результатом является не только большая скорость, но и более сильное управление. Когда LLM последовательно маршрутизирует задачи через одни и те же укрепленные пути, организации обнаруживают надежные следы аудита, воспроизводимые рабочие процессы и ясную атрибуцию между человеческой и ИИ-деятельностью. Журналы включают подсказки, вызовы инструментов, детали сеанса и ссылки на политику – все это дает командам соответствия прозрачность, которую они все чаще нуждаются и ожидают в средах, содействуемых ИИ.

Также есть культурные выгоды от этого подхода. Отloading «труда» (например, обзор журналов, повторяющиеся проверки, скучные административные шаги и т. д.), команды ИТ могут сдвинуть свою энергию и фокус на более ценные работы. Это может часто улучшить как эффективность, так и моральный дух; особенно в операционных группах, которые растянуты тонко гибридным распылением инфраструктуры.

Наконец, поскольку архитектуры MCP могут поддерживать несколько LLMs, организации не вынуждены иметь дело с одним поставщиком. Они могут выбрать коммерческие, открытые или локальные модели, в зависимости от нормативных потребностей и предпочтений управления данными.

Риски безопасности, которые все еще требуют внимания

Хотя выгоды, которые мы исследовали, значительны – и в некоторых отношениях трансформирующие – это необходимо и ответственно указать, что даже с безопасным посредническим слоем, среды, содействуемые LLM не являются безрисковыми. Есть четыре постоянных проблемы, которые необходимо подчеркнуть:

  • Как упоминалось ранее, внедрение подсказки – как прямое, так и косвенное – остается одной из основных проблем и продолжает быть одной из самых обширно задокументированных классов атак против LLMs.
  • Обнажение метаданных является еще одной проблемой. Хотя серверы MCP защищают учетные данные, если команды не обеспечивают сильные практики минимизации данных, подсказки и ответы все равно могут обнажать имена хостов, внутренние пути и топологические шаблоны.
  • Системы на основе MCP добавляют новые машины-идентификаторы: серверы инструментов, виртуальные каналы, агентские процессы. Согласно исследованиям отрасли, машины-идентификаторы значительно превосходят человеческие идентификаторы во многих организациях, и неправильное управление этими идентификаторами является растущим источником нарушений.
  • Наконец, цепочка поставок ИИ не может быть проигнорирована. Обновления моделей, расширения инструментов и слои интеграции требуют постоянной проверки. Анализ ENISA подчеркивает, что системы ИИ вводят более широкую и хрупкую цепочку поставок, чем традиционные программные стеки.

Следующие 12 месяцев: практический путь вперед

Организации, исследующие автоматизацию, содействуемую LLM, в привилегированных средах, должны рассматривать посредничество, подобное MCP, как ожидаемую базовую линию. В течение следующего года лидеры могут предпринять несколько практических шагов, которые включают:

  • Установление внутренней модели управления, определяющей, какие LLMs одобрены и какие данные они могут получить.
  • Обеспечение того, чтобы все привилегированные действия, содействуемые ИИ, маршрутизировались через слой, подобный MCP, а не взаимодействовали с учетными данными напрямую.
  • Интеграция рабочих процессов, инициированных ИИ, в существующие рамки PAM.
  • Принятие политики в виде кода для определения и тестирования границ инструментов.
  • Приоритет минимизации данных.
  • Включение красной команды, специфичной для ИИ, сосредоточенной на манипуляции подсказками, поведении моделей и локальном укреплении интерфейса.

Последнее слово

LLMs меняют удаленный доступ и привилегированные операции, предлагая новые уровни скорости, руководства и автоматизации. Однако безопасное освобождение этого потенциала требует дисциплинированного архитектурного подхода: один, который размещает безопасный, отслеживаемый посреднический слой между моделями ИИ и чувствительными системами. Серверы MCP обеспечивают эту структуру. Они позволяют ИИ помогать без «передачи ключей», объединяя инновации с управлением в方式, соответствующей современным ожиданиям Zero Trust.

Для организаций, стремящихся ответственно и с прибылью использовать ИИ, дизайны, подобные MCP, представляют практический, перспективный план – один, где LLMs усиливают человеческий опыт, а не непреднамеренно компрометируют безопасность привилегированного доступа и рабочих процессов.

Как президент и генеральный директор Devolutions, Дэвид руководит корпоративной стратегией компании и контролирует разработку продукции с упором на инновации, безопасность и удобство использования. После основания Devolutions в 2004 году как фирмы по консультированию в области программного обеспечения, Дэвид сменил направление компании в 2010 году на разработку мощных и удобных в использовании решений для информационных технологий. Сегодня Devolutions поддерживает более 1 миллиона пользователей в более чем 140 странах и признана надежным лидером в области управления привилегированным доступом и безопасности информационных технологий для малого и среднего бизнеса. Рассматривая путь компании, Дэвид объясняет ее успех своей глубокой экспертизой в области архитектуры программного обеспечения, его предпринимательским духом и неустанной приверженностью удовлетворению потребностей клиентов.

Раскрытие информации о рекламе: Unite.AI придерживается строгих редакционных стандартов, чтобы предоставлять читателям точную информацию и новости. Мы можем получать вознаграждение, если вы переходите по ссылкам на продукты, которые мы рассмотрели.