Connect with us

LLMs์™€ MCP ์„œ๋ฒ„: ์›๊ฒฉ ์•ก์„ธ์Šค์—์„œ ๋ณด์•ˆ AI๋ฅผ ์œ„ํ•œ ์ƒˆ๋กœ์šด ์ฒญ์‚ฌ์ง„

์‚ฌ์ƒ ๋ฆฌ๋”

LLMs์™€ MCP ์„œ๋ฒ„: ์›๊ฒฉ ์•ก์„ธ์Šค์—์„œ ๋ณด์•ˆ AI๋ฅผ ์œ„ํ•œ ์ƒˆ๋กœ์šด ์ฒญ์‚ฌ์ง„

mm

점점 더 많은 조직이 대형 언어 모델(Large Language Models, LLMs)을 채택하고 있습니다. LLMs는 자연어를 해석하고, 문제 해결을 안내하며, 관리자가 느려지는 반복적인 작업을 자동화하는 데 탁월합니다. AI 어시스턴트가 “기본 Linux 클러스터에 연결하고 실패한 로그인 확인”과 같은 지시를 받고 즉시 완전히 오케스트레이션된 작업을 실행하면 효율성과 생산성의 이점은 명백합니다.

이러한 추세의 일환으로, LLMs는 원격 연결 및 하이브리드, 클라우드 및 온프레미스 환경에서 특권 액세스를 관리하는 데 사용되는 도구와 같은 IT 운영의 가장 민감한 구석으로 들어가고 있습니다. 원격 액세스 시스템은 신뢰, 身分, 운영 제어의 핵심에 위치합니다. 관리자 세션, 인증 중개,敏感한 워크로드를 관리하며, 이러한 워크로드를 실행하는 사람들을 연결합니다.

원격 액세스에서 AI에 중재 계층이 필요한 이유

LLMs를 특권 워크플로우로 확장하는 것은 편리하지만, 또한 문제가 됩니다. 일부 AI 도구는 명령을 실행하거나 호스트에 연결하기 위해 단순히 자격 증명을 검색하고 이를 다운스트림에서 사용하기 위해 LLM에 전달합니다. 이것은 편리한捷徑이지만, 또한 잠재적으로 위험한捷徑입니다. 모델이 비밀번호 또는 키를 받으면, 전체 특권 경계가 무너집니다. 조직은 자격 증명 治理, 감사 가능성에 대한 제어를 잃게 됩니다. LLM은 환경의 핵심에 액세스할 수 있는 새로운, 불투명한 배우가 됩니다.

또한, 모델은 조작된 입력으로 인해 영향을 받을 수 있으며, 자격 증명 노출을 더욱 위험하게 만듭니다. 또한, LLMs의 문脈 데이터에 대한 욕구는 키, 토큰 및 관리 경로를 보호하는 시스템에 대한 위험한 동반자로 만듭니다. 궁극적으로, LLMs(및 이러한 모델을 사용하는 관련 AI 도구 및 모델)는 매우 유용할 수 있지만, 절대로 비밀을 보거나 다룰 수 없습니다. 이러한 방식으로 신뢰할 수 있는 수준에 도달하지 못합니다.

이러한 우려와 취약성에 비추어, CIO, CISO 및 운영 책임자에게 중요한 질문이 남습니다: 우리는 LLMs를 어떻게 사용하여 도움을 받을 수 있지만, 동시에 특권 워크플로우에 너무 가까이 가지 않도록 할 수 있나요?

幸い, 이 질문에 대한 답이 나타나고 있으며, 이는 건축적 취약성을 강점으로 전환하는 것입니다: 모델 문脈 프로토콜(Model Context Protocol, MCP) 서버.

MCP 서버: 인프라와의 LLM 상호 작용을 재정의

MCP 서버는 보안 중간자로 작용하여 – 효과적으로 AI “에어록” – LLMs가 작업을 요청할 수 있지만, 이러한 작업에 필요한 자격 증명이나 특권 경로에 절대로 접근할 수 없습니다. 조직이 AI 지원 운영으로 더 깊이 들어갈수록, MCP 스타일의 접근 방식은 안전하고 확장 가능한 통합을 위한 청사진으로 등장하고 있습니다.

MCP 서버는 많은 보안 아키텍트가 필수적이라고 주장해 온 관심사 분리를 도입합니다: AI가 보조하지만, 제어된 시스템이 실행합니다. LLM에 직접적으로 행동할 수 있는 권한을 부여하는 대신, 모델은 의도(예: “여기 연결”, “로그 수집”, “이 정책 확인”)를 표현할 수 있지만, MCP 서버는 이러한 요청을 해석하고, 정책을 적용하고, 검증된 도구를 통해 라우팅합니다. 중요한 것은 이 접근 방식이 NIST AI 위험 관리 프레임워크에서 설명된 원칙과 일치한다는 것입니다. 이는 도구 경계, 중재된 권한 및 인간 제어 에스컬레이션을 강조합니다.

이 디자인을 특히 강력하게 만드는 것은 LLM이 절대로 특권 자료를 받지 않는다는 것입니다. 인증은 내부적으로 보안 자격 증명 주입을 통해 처리됩니다. 결과적으로, LLM은 결과만 볼 수 있으며, 비밀 자체는 볼 수 없습니다. LLM은 발생한 일에 대해 설명할 수 있으며, 문제를 해결하는 데 도움을 줄 수 있으며, 인간을 다음 단계로 안내할 수 있지만, 자체적으로 인증할 수는 없습니다.

보안 연구는 AI 모델과 로컬 도구 사이의 전송 계층이 공격 표면의 중요한 부분임을 점점 더 강조하고 있습니다. 예를 들어, OWASP의 LLM 애플리케이션 상위 10개는 불안정한 플러그인 상호 작용, 특히 오픈 로컬호스트 HTTP 엔드포인트를 통해 노출되는 것,이 특권 작업을 트리거할 수 있는 비신뢰할 수 있는 로컬 프로세스를 허용할 수 있음을 강조합니다. MCP 스타일의 아키텍처는 이름付き 파이프와 같은 OS 적용, 사용자 범위 채널에 의존하여 이러한 문제를 피합니다. 이는 ENISA의 보다 광범위한 경고와 높은 특권 환경에서 이러한 위협을 도입하는 위험에 대해 일치합니다.

MCP 서버의 또 다른 주요 이점은 원격 세션 내에서 작업을 실행할 수 있는 능력입니다. 보안 가상 채널 또는 유사한 메커니즘을 사용하여 MCP 서버는 RDP 또는 SSH 환경 내에서 직접 작업을 수행할 수 있지만, 깨지기 쉬운, MFA 우회 스크립트에 의존하지 않습니다. 이 접근 방식은 편리함과 거버넌스를 결합합니다. 관리자는 강력한 자동화를 얻지만, 제로 트러스트 원칙을 포기하지 않습니다.

이러한 특성은 “안전한 AI 통합”이 무엇인지 다시 정의합니다. AI를 감싼다는 것은 아니라, 조직은 사이에 강화된 계층을 두어, AI가 무엇을 요청하고 받을 수 있는지, 그리고 무엇을 절대로 볼 수 없는지 정의합니다.

LLM + MCP 아키텍처의 운영 이점

이 디자인의 운영 상 이점은 상당합니다. MCP를 통해 AI를 중재하면 IT 팀은 환경 설정, 구성 표준화 및 다중 세션 작업을 단순한 자연어로 오케스트레이션할 수 있습니다. 이는 특히 컨텍스트 전환으로 인해 모든 것이 느려지는 하이브리드 환경에서 문제 식별과 해결 사이의 시간을 크게 줄일 수 있는 잠재력을 가지고 있습니다.

이러한 개선 사항은 또한 더广泛한 산업 예측 및 추천과 일치합니다. Gartner는 LLM 지원 IT 운영을 하이브리드 인프라 관리를 가속화하는 주요 요인으로 지목합니다. 이는 팀이 거버넌스를 포기하지 않고 더 빠르게 작동하도록 도와줍니다. 모델은 로그를 분석하고, 복잡한 데이터 세트를 요약하며, 인간을 문제 해결 단계로 안내합니다. MCP 계층은 모든 작업이 준수되고 추적 가능하다는 것을 보장합니다.

결과는 단순히 속도만이 아니라, 더 강력한 거버넌스입니다. LLM이 일관되게 작업을 동일한 강화된 경로를 통해 라우팅하면, 조직은 안정적인 감사 추적, 재현 가능한 워크플로, 인간 및 AI 활동 사이의 명확한 귀속을 발견합니다. 로그에는 프롬프트, 도구 호출, 세션 세부 정보 및 정책 참조가 포함되어 있으며, 모두 준수 팀이 점점 더 필요로 하고 기대하는 AI 주도 환경에서 투명성을 제공합니다.

이 접근 방식에는 또한 문화적 이점이 있습니다. IT 팀이 “노동”을卸荷(예: 로그 검토, 반복적인 확인, 단순한 관리 단계 등)하면, 에너지와 집중力を 더 가치 있는 작업으로 전환할 수 있습니다. 이는 특히 하이브리드 인프라 스프롤에 의해 얇게 늘어난 운영 그룹에서 효율성과 사기를 향상시킬 수 있습니다.

마지막으로, MCP 아키텍처는 여러 LLMs를 지원할 수 있으므로, 조직은 단일 공급자와 거래할 필요가 없습니다. 규제 요구 사항 및 데이터 거버넌스 선호도에 따라 상업적, 오픈 소스 또는 온프레미스 모델을 선택할 수 있습니다.

まだ 주의가 필요한 보안 위험

우리가 탐구한 이점이 상당하고,某些면에서 변혁적이지만, MCP를 통해 중재되는 환경도 위험에서 완전히 자유롭지 않다는 것을 지적하는 것이 필요하고, 책임 있습니다. 다음 네 가지 우려 사항을 강조합니다:

  • 이전에도 언급했듯이, 프롬프트 주입 – 직접 및 간접 모두 -은 여전히 가장 큰 우려 사항 중 하나이며, 여전히 LLMs에 대한 가장 광범위하게 문서화된 공격 클래스 중 하나입니다.
  • 메타데이터 노출은 또 다른 우려 사항입니다. MCP 서버가 자격 증명을 보호하지만, 팀이 강력한 데이터 최소화 관행을 시행하지 않는다면, 프롬프트와 응답은 여전히 호스트 이름, 내부 경로 및 토폴로지 패턴을 누설할 수 있습니다.
  • MCP 기반 시스템은 새로운 기계 身分을 추가합니다: 도구 서버, 가상 채널, 에이전트 프로세스. 산업 연구에 따르면, 기계 身分은 많은 조직에서 인간 身分보다 훨씬 많으며, 이러한 身分의 불량 관리는 침해의 증가하는 원천입니다.
  • 마지막으로, AI 공급망을 무시할 수 없습니다. 모델 업데이트, 도구 확장 및 통합 계층에는 지속적인 검증이 필요합니다. ENISA의 분석에 따르면, AI 시스템은 전통적인 소프트웨어 스택보다 더广泛하고, 더 취약한 공급망을 도입합니다.

다음 12개월: 실제적인 앞으로의 길

원격 액세스에서 특권 환경에서 LLM 주도 자동화를 탐색하는 조직은 MCP 스타일의 중재를 기본라인으로 간주해야 합니다. 다음 1년 동안, 리더는 다음과 같은 실제 단계를 취할 수 있습니다:

  • 승인된 LLM 및 액세스할 수 있는 데이터를 정의하는 내부 거버넌스 모델을 설정합니다.
  • 모든 AI 주도 특권 작업이 자격 증명과 직접 상호 작용하는 대신 MCP와 같은 계층을 통해 라우팅되도록 합니다.
  • AI 주도 워크플로를 기존 PAM 프레임워크에 통합합니다.
  • 도구 경계를 정의하고 테스트하기 위해 정책을 코드로 채택합니다.
  • 데이터 최소화를 우선시합니다.
  • 프롬프트 조작, 모델 동작 및 로컬 인터페이스 강화에 중점을 둔 AI 특정 레드 팀을 통합합니다.

최종 단어

LLMs는 원격 액세스 및 특권 운영을 재정의하며, 새로운 수준의 속도, 안내 및 자동화를 제공합니다. 그러나 이러한 잠재력을 안전하게 풀어내기 위해서는 규율된 건축적 접근 방식이 필요합니다: AI 모델과 민감한 시스템 사이에 보안 및 감사 가능한 중재 계층을 두는 것입니다. MCP 서버는 이러한 구조를 제공합니다. AI가 도움을 주지만 “키를 넘겨주지 않도록”하여, 혁신과 거버넌스를 현대적인 제로 트러스트 기대와 일치시키는 방식으로 결합합니다.

AI를 책임 있게 그리고 이익 있게 활용하려는 조직에게, MCP 스타일의 디자인은 실제적인, 앞으로 향한 청사진을 나타냅니다. 여기서 LLMs는 인간 전문 지식을 증폭시키는 대신, 특권 액세스 및 워크플로의 보안을 우연히도 위협하지 않습니다.

Devolutions์˜ ์‚ฌ์žฅ ๋ฐ CEO๋กœ์„œ, David๋Š” ํšŒ์‚ฌ์˜ ๊ธฐ์—… ์ „๋žต์„ ์ฃผ๋„ํ•˜๋ฉฐ ํ˜์‹ , ๋ณด์•ˆ, ์‚ฌ์šฉ ํŽธ์˜์„ฑ์— ์ค‘์ ์„ ๋‘” ์ œํ’ˆ ๊ฐœ๋ฐœ์„ ๊ฐ๋…ํ•ฉ๋‹ˆ๋‹ค. 2004๋…„ ์†Œํ”„ํŠธ์›จ์–ด ์ปจ์„คํŒ… ํšŒ์‚ฌ๋กœ Devolutions๋ฅผ ์„ค๋ฆฝํ•œ ํ›„, David๋Š” 2010๋…„์— ๊ฐ•๋ ฅํ•˜๊ณ  ์‚ฌ์šฉ์ž ์นœํ™”์ ์ธ IT ์†”๋ฃจ์…˜์„ ๊ฐœ๋ฐœํ•˜๊ธฐ ์œ„ํ•ด ํšŒ์‚ฌ์˜ ์ดˆ์ ์„ ๋ณ€๊ฒฝํ–ˆ์Šต๋‹ˆ๋‹ค. ์˜ค๋Š˜๋‚ , Devolutions๋Š” 140๊ฐœ ์ด์ƒ์˜ ๊ตญ๊ฐ€์—์„œ 1๋ฐฑ๋งŒ ๋ช…์ด ๋„˜๋Š” ์‚ฌ์šฉ์ž๋ฅผ ์ง€์›ํ•˜๋ฉฐ SMB๋ฅผ ์œ„ํ•œ ํŠน๊ถŒ ์ ‘๊ทผ ๊ด€๋ฆฌ ๋ฐ IT ๋ณด์•ˆ์˜ ์‹ ๋ขฐํ•  ์ˆ˜ ์žˆ๋Š” ๋ฆฌ๋”๋กœ ์ธ์ •๋ฐ›๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค. ํšŒ์‚ฌ์˜ ์—ฌ์ •์„ ๋Œ์•„๋ณด๋ฉฐ, David๋Š” ํšŒ์‚ฌ์˜ ์„ฑ๊ณต์„ ์†Œํ”„ํŠธ์›จ์–ด ์•„ํ‚คํ…์ฒ˜์— ๋Œ€ํ•œ ๊ทธ์˜ ๊นŠ์€ ์ „๋ฌธ ์ง€์‹, ๊ทธ์˜ ๊ธฐ์—…๊ฐ€์  ์ถ”์ง„๋ ฅ, ๊ทธ๋ฆฌ๊ณ  ๊ณ ๊ฐ ๋งŒ์กฑ์— ๋Œ€ํ•œ ๋ถˆ๊ตด์˜ ํ—Œ์‹ ์— ๊ธฐ์ธํ•ฉ๋‹ˆ๋‹ค.