ผู้นำทางความคิด
LLMs และเซิร์ฟเวอร์ MCP: แผนภาพใหม่สำหรับ AI ที่มีความปลอดภัยในการเข้าถึงระยะไกล

องค์กรจำนวนมากกำลังยอมรับโมเดลภาษาขนาดใหญ่ (LLMs) LLMs มีความเชี่ยวชาญในการตีความภาษาธรรมชาติ การช่วยเหลือในการแก้ไขปัญหา และการทำให้กระบวนการทำงานซ้ำซึ่งทำให้ผู้ดูแลระบบชะลอความเร็ว เมื่อ AI ที่ช่วยเหลือสามารถรับคำสั่ง เช่น “เชื่อมต่อฉันกับคลัสเตอร์ Linux หลักและตรวจสอบการเข้าระบบที่ล้มเหลว” และดำเนินการตามคำสั่งโดยสมบูรณ์ ความเร็วและผลผลิตที่เพิ่มขึ้นเป็นเรื่องที่ไม่ต้องสงสัย
เป็นส่วนหนึ่งของแนวโน้มนี้ LLMs กำลังพบวิธีเข้าสู่มุมที่ละเอียดอ่อนที่สุดของการดำเนินงาน IT รวมถึงเครื่องมือที่ทีมต่างๆ พึ่งพาในการจัดการการเข้าถึงระยะไกลและการเข้าถึงสิทธิพิเศษข้ามสภาพแวดล้อมไฮบริด คลาวด์ และออน-пレมิส ระบบการเข้าถึงระยะไกลอยู่ที่จุดตัดของความไว้วางใจ อัตลักษณ์ และการควบคุมการดำเนินงาน พวกเขาจัดการเซสชันของผู้ดูแลระบบ จัดหาการรับรองตัวตน และเชื่อมต่อการทำงานที่ละเอียดอ่อนกับบุคคลที่รับผิดชอบในการรักษาความปลอดภัยให้พวกเขา
เหตุใด AI จึงต้องการชั้นกลางในการเข้าถึงระยะไกล
การขยาย LLMs ไปยังกระบวนการทำงานสิทธิพิเศษนี้เป็นเรื่องที่สะดวก แต่ก็เป็นเรื่องที่เป็นปัญหาเช่นกัน เพื่อดำเนินการคำสั่งหรือเชื่อมต่อกับโฮสต์ เครื่องมือ AI บางตัวเพียงแค่ดึงข้อมูลรับรองและผ่าน LLM เพื่อใช้งานในภายหลัง นี่เป็นวิธีการที่รวดเร็ว แต่ก็เป็นวิธีการที่มีความเสี่ยงด้วย หากโมเดลได้รับรหัสผ่านหรือคีย์ พรมแดนของสิทธิพิเศษจะล่มสลาย องค์กรจะสูญเสียการควบคุมการกำกับดูแลรหัสผ่าน ความสามารถในการตรวจสอบจะไม่น่าเชื่อถือ และ LLM จะกลายเป็นตัวแสดงใหม่ที่ไม่โปร่งใสซึ่งมีการเข้าถึงสู่ใจกลางของสภาพแวดล้อม
นอกจากนี้ โมเดลสามารถถูกมีอิทธิพลจากอินพุตที่ถูกบิดเบือน ทำให้การเปิดเผยข้อมูลรับรองมีความเสี่ยงมากขึ้น นอกเหนือจากนี้ ความต้องการข้อมูลบริบทของ LLMs ทำให้พวกมันเป็นเพื่อนที่มีความเสี่ยงสำหรับระบบที่คุ้มครองคีย์ โทเค็น และเส้นทางการบริหารสูงสุด สุดท้าย LLMs (และเครื่องมือ AI และโมเดลที่เกี่ยวข้องที่ใช้ประโยชน์จากพวกมัน) สามารถเป็นประโยชน์อย่างมาก แต่พวกมันไม่ควรได้รับอนุญาตให้ถือหรือจัดการกับข้อมูลลับ พวกมันไม่โตพอที่จะไว้วางใจในลักษณะนี้
เมื่อพิจารณาถึงความกังวลและความเสี่ยงเหล่านี้ คำถามหลักสำหรับ CIOs, CISOs และผู้นำการดำเนินงานคือ เราจะทำให้ LLMs ช่วยเหลือเราได้อย่างไร แต่ไม่ให้พวกมันเข้าใกล้กระบวนการทำงานสิทธิพิเศษของเรา?
幸运的是 มีคำตอบที่กำลังเกิดขึ้นซึ่งเปลี่ยนความอ่อนแอทางสถาปัตยกรรมให้เป็นจุดแข็ง: เซิร์ฟเวอร์ Model Context Protocol (MCP)
เซิร์ฟเวอร์ MCP: การเปลี่ยนแปลงวิธีการที่ LLMs ติดต่อกับโครงสร้างพื้นฐาน
เซิร์ฟเวอร์ MCP ทำหน้าที่เป็นคนกลางที่ปลอดภัย – โดยพื้นฐานแล้วเป็น “ห้อง气锁” ของ AI – ที่ช่วยให้ LLMs สามารถขอการดำเนินการ แต่ไม่ต้องสัมผัสกับรหัสผ่านหรือเส้นทางสิทธิพิเศษที่การดำเนินการเหล่านั้นต้องการ เมื่อองค์กรผลักดันการดำเนินงาน AI ที่ช่วยเหลือมากขึ้น วิธีการ MCP กำลังเกิดขึ้นเป็นแผนภาพสำหรับการรวม AI ที่ปลอดภัยและปรับขนาดได้
เซิร์ฟเวอร์ MCP นำการแยกความกังวลที่นักสถาปัตยกรรมด้านความปลอดภัยหลายคนได้โต้แย้งว่าจำเป็น: AI ช่วยเหลือ แต่ระบบที่ควบคุมจะดำเนินการแทนการให้ LLM มีอำนาจในการดำเนินการโดยตรง โมเดลจะถูกจำกัดให้แสดงความตั้งใจ (เช่น “เชื่อมต่อที่นี่”, “รวบรวมล็อก”, “ตรวจสอบนโยบายนี้”) ในขณะที่เซิร์ฟเวอร์ MCP จะตีความคำขอเหล่านี้ ใช้นโยบาย และส่งผ่านเครื่องมือที่ได้รับการตรวจสอบอย่างดี สิ่งสำคัญคือวิธีการนี้สอดคล้องกับหลักการใน NIST AI Risk Management Framework ซึ่งเน้นย้ำถึงขอบเขตของเครื่องมือ การอนุญาตที่มีการ trung gian และการเพิ่มขึ้นของการควบคุมโดยมนุษย์
สิ่งที่ทำให้การออกแบบนี้มีผลกระทบอย่างมากคือ LLM ไม่เคยได้รับวัสดุอ่อนแอ การรับรองความถูกต้องจะจัดการภายในโดยการฉีดรหัสผ่านอย่างปลอดภัย ดังนั้น LLM จะเห็นเฉพาะผลลัพธ์ ไม่ใช่ความลับเอง LLM สามารถอธิบายสิ่งที่เกิดขึ้น ช่วยในการแก้ไขปัญหา และช่วยให้คนผ่านขั้นตอนต่อไป แต่ไม่สามารถรับรองความถูกต้องได้ด้วยตนเอง
การวิจัยด้านความปลอดภัยเน้นย้ำว่าชั้นการขนส่งระหว่างโมเดล AI และเครื่องมือท้องถิ่นเป็นส่วนสำคัญของพื้นผิวการโจมตี ตัวอย่างเช่น OWASP’s Top 10 for LLM Applications เน้นย้ำว่าการโต้ตอบปลั๊กอินที่ไม่ปลอดภัย – โดยเฉพาะอย่างยิ่ง那些ที่เปิดเผยผ่านจุดสิ้นสุด HTTP ของ localhost ที่เปิดอยู่ – สามารถทำให้กระบวนการทำงานท้องถิ่นที่ไม่เชื่อถือได้กระตุ้นการดำเนินการสิทธิพิเศษ MCP-สไตล์หลีกเลี่ยงสิ่งนี้โดยอาศัยช่องทางที่มีการรักษาความปลอดภัยโดยระบบปฏิบัติการ เช่น ช่องทางที่มีชื่อ ซึ่งให้การแยกความกังวลที่แข็งแกร่งกว่า วิธีการนี้สอดคล้องกับ คำเตือนของ ENISA เกี่ยวกับจุดยึด AI ที่ไม่ปลอดภัยและความเสี่ยงที่พวกมันนำเข้าสู่สภาพแวดล้อมสิทธิพิเศษ
ข้อได้เปรียบหลักอีกประการหนึ่งของเซิร์ฟเวอร์ MCP คือความสามารถในการดำเนินการ ภายใน เซสชันระยะไกล โดยใช้ช่องทางเสมือนหรือกลไกที่เทียบเท่า เซิร์ฟเวอร์ MCP สามารถดำเนินการภายในสภาพแวดล้อม RDP หรือ SSH ได้ แต่ไม่ต้องอาศัยสคริปต์ที่เปราะบางที่หลีกเลี่ยง MFA วิธีการนี้รวมความสะดวกสบายเข้ากับการกำกับดูแล: ผู้ดูแลระบบได้รับการอัตโนมัติที่มีพลัง แต่ไม่ต้องเสียสละหลักการ Zero Trust
ร่วมกัน ลักษณะเหล่านี้กำหนดความหมายใหม่ของ “การรวม AI ที่ปลอดภัย” แทนที่จะหุ้ม AI ไว้รอบระบบที่ละเอียดอ่อน องค์กรจะวางชั้นการรักษาความปลอดภัยระหว่าง AI และระบบ โดยกำหนดว่า AI สามารถขอและรับอะไร – และสิ่งสำคัญคืออะไรที่ AI ไม่เคยได้รับอนุญาตให้เห็น
ผลประโยชน์ในการดำเนินงานของ LLM + สถาปัตยกรรม MCP
ผลตอบแทนจากการดำเนินงานของการออกแบบนี้มีนัยสำคัญ โดยการ trung gian AI ผ่าน MCP ทีม IT สามารถจัดเตรียมการกำหนดค่า สภาพแวดล้อมมาตรฐาน และงานหลายเซสชันโดยใช้ภาษาธรรมชาติแบบง่ายๆ สิ่งนี้มีศักยภาพในการลดเวลาระหว่างการระบุปัญหาและการแก้ไขปัญหา โดยเฉพาะอย่างยิ่งในสภาพแวดล้อมไฮบริดที่การเปลี่ยนบริบททั่วไปจะชะลอความเร็วทุกอย่าง
การปรับปรุงเหล่านี้ยัง符合การคาดการณ์และคำแนะนำของอุตสาหกรรมในวงกว้าง Gartner ชี้ให้เห็นว่าการดำเนินงาน IT ที่ช่วยเหลือโดย LLMs เป็นตัวเร่งสำคัญสำหรับการจัดการโครงสร้างพื้นฐานไฮบริด ช่วยให้ทีมทำงานได้เร็วขึ้นโดยไม่ต้องเสียสละการกำกับดูแล โมเดลวิเคราะห์ล็อก สรุปชุดข้อมูลที่ซับซ้อน และช่วยเหลือมนุษย์ผ่านขั้นตอนการแก้ไขปัญหา – ทั้งหมดนี้ในขณะที่ชั้น MCP รับรองว่าการดำเนินการแต่ละอย่างมีการปฏิบัติตามและสามารถตรวจสอบได้
ผลลัพธ์ไม่เพียงแต่มีความเร็วที่มากกว่า แต่ยังมีการ กำกับดูแล ที่แข็งแกร่งกว่า เมื่อ LLM ส่งงานผ่านช่องทางที่มีการรักษาความปลอดภัยเดียวกัน องค์กรจะค้นพบการตรวจสอบที่น่าเชื่อถือ การทำงานซ้ำ และการเชื่อมโยงที่ชัดเจนระหว่างกิจกรรมของมนุษย์และ AI บันทึกจะรวมถึงคำสั่ง การเรียกใช้เครื่องมือ รายละเอียดเซสชัน และอ้างอิงนโยบาย – ทั้งหมดนี้ให้ความโปร่งใสแก่ทีมการปฏิบัติตามที่พวกเขาต้องการและคาดหวังในสภาพแวดล้อมที่ขับเคลื่อนด้วย AI
มีผลประโยชน์ทางวัฒนธรรมของวิธีการนี้ด้วย โดยการ “ปล่อยให้ทำงานอันตราย” (เช่น การทบทวนล็อก การตรวจสอบซ้ำซากๆ และขั้นตอนการบริหารที่น่าเบื่อๆ) ทีม IT สามารถเปลี่ยนพลังงานและโฟกัสไปสู่งานที่มีคุณค่าสูงกว่า สิ่งนี้สามารถปรับปรุงความเร็วและขวัญกำลังใจได้ โดยเฉพาะอย่างยิ่งในกลุ่มการดำเนินงานที่ถูกยืดออกไปโดยการขยายโครงสร้างพื้นฐานไฮบริด
สุดท้าย เนื่องจากสถาปัตยกรรม MCP สามารถรองรับ LLMs หลายตัว องค์กรจึงไม่ถูกบังคับให้จัดการกับผู้ให้บริการเพียงรายเดียว พวกเขาสามารถเลือกโมเดลเชิงพาณิชย์ โอเพ่นซอร์ส หรือออน-п레มิส ขึ้นอยู่กับความต้องการด้านกฎระเบียบและการกำกับดูแลข้อมูล
ความเสี่ยงด้านความปลอดภัยที่ยังคงต้องได้รับการสนใจ
แม้ว่าผลประโยชน์ที่เราจะสำรวจจะมีนัยสำคัญ – และในบางด้านมีการเปลี่ยนแปลง – ก็จำเป็นและรับผิดชอบที่จะชี้ให้เห็นว่าแม้จะมีชั้นการ trung gian ที่ปลอดภัย แต่ สภาพแวดล้อมที่ช่วยเหลือโดย LLMs ไม่ใช่ความเสี่ยงฟรี มีความกังวลที่ยังคงต้องเน้นย้ำ:
- ตามที่กล่าวไว้ก่อนหน้านี้ การฉีดข้อความ – ทั้งโดยตรงและโดยอ้อม – ยังคงเป็นหนึ่งในข้อกังวลที่ใหญ่ที่สุด และยังคงเป็นหนึ่งใน ชั้นการโจมตีที่มีการบันทึกมากที่สุดสำหรับ LLMs.
- การเปิดเผยเมตาดาต้าเป็นข้อกังวลอีกประการหนึ่ง แม้ว่าเซิร์ฟเวอร์ MCP จะป้องกันรหัสผ่าน แต่ถ้าทีมไม่บังคับใช้แนวปฏิบัติในการลดข้อมูลสู่ขั้นต่ำ ข้อความและคำตอบสามารถรั่วไหลชื่อโฮสต์ เส้นทางภายใน และรูปแบบท็อปโพลوجี
- ระบบ MCP เพิ่มความตัวตนเครื่องใหม่: เซิร์ฟเวอร์เครื่องมือ ช่องทางเสมือน กระบวนการเอเจนต์ ตามการวิจัยของอุตสาหกรรม ความตัวตนเครื่องมีจำนวนมากกว่าความตัวตนของมนุษย์หลายเท่าในหลายองค์กร และการบริหารจัดการที่ไม่ดีของความตัวตนเหล่านี้เป็นแหล่งที่มาของการละเมิดที่เพิ่มขึ้น
- สุดท้าย สายการผลิต AI ไม่สามารถเพิกเฉยได้ การอัปเดตโมเดล การขยายเครื่องมือ และชั้นการรวมต้องได้รับการตรวจสอบอย่างต่อเนื่อง การวิเคราะห์ของ ENISA เน้นย้ำว่าระบบ AI นำเสนอสายการผลิตที่กว้างขึ้นและเปราะบางมากกว่าสแต็กซอฟต์แวร์แบบดั้งเดิม
12 เดือนข้างหน้า: เส้นทางไปข้างหน้าที่เป็นรูปธรรม
องค์กรที่สำรวจการอัตโนมัติที่ขับเคลื่อนด้วย LLMs ในสภาพแวดล้อมสิทธิพิเศษควรพิจารณา MCP-สไตล์เป็นมาตรฐานที่คาดหวัง ในช่วง 12 เดือนข้างหน้า ผู้นำสามารถดำเนินการตามขั้นตอนรูปธรรมได้หลายขั้นตอน ซึ่งรวมถึง:
- กำหนดแบบจำลองการกำกับดูแลภายในที่กำหนด LLMs ที่ได้รับการอนุมัติและข้อมูลที่พวกมันสามารถเข้าถึงได้
- รับรองว่าการดำเนินการโดย AI ที่มีสิทธิพิเศษทั้งหมดจะผ่านชั้น MCP-สไตล์แทนการโต้ตอบกับรหัสผ่านโดยตรง
- รวมการทำงานที่เริ่มต้นโดย AI เข้ากับโครงสร้าง PAM ที่มีอยู่
- ใช้นโยบายเป็นโค้ดเพื่อกำหนดและทดสอบขอบเขตเครื่องมือ
- จัดลำดับความสำคัญของการลดข้อมูลสู่ขั้นต่ำ
- รวมการโจมตีแบบแดงเฉพาะ AI ที่เน้นการบิดเบือนคำสั่ง พฤติกรรมของโมเดล และการทำให้หน้าจ่ายังคงแข็งแกร่ง
คำสุดท้าย
LLMs กำลังเปลี่ยนแปลงการเข้าถึงระยะไกลและการดำเนินงานสิทธิพิเศษ โดยนำเสนอความเร็วใหม่ การช่วยเหลือ และการอัตโนมัติ อย่างไรก็ตาม การปลดปล่อยศักยภาพนี้อย่างปลอดภัยต้องใช้วิธีการทางสถาปัตยกรรมที่มีวินัย: วิธีการที่วางชั้นการ trung gian ที่ปลอดภัยและสามารถตรวจสอบได้ระหว่างโมเดล AI และระบบที่ละเอียดอ่อน เซิร์ฟเวอร์ MCP ให้โครงสร้างนี้ อนุญาตให้ AI ช่วยเหลือโดยไม่ “มอบกุญแจ” การรวมนวัตกรรมเข้ากับการกำกับดูแลในลักษณะที่สอดคล้องกับความคาดหวังของ Zero Trust ในยุค hiện đại
สำหรับองค์กรที่ต้องการใช้ AI อย่างรับผิดชอบและให้ผลกำไร สถาปัตยกรรม MCP-สไตล์เป็นแผนภาพที่เป็นรูปธรรม – แผนภาพที่ LLMs เพิ่มความเชี่ยวชาญของมนุษย์ แทนที่จะประนีประนอมความปลอดภัยของการเข้าถึงสิทธิพิเศษและกระบวนการทำงานโดยไม่ตั้งใจแต่ด้วยความแน่นอน












