บทสัมภาษณ์
บทสัมภาษณ์พิเศษกับ Jacob Ideskog, CTO ของ Curity

จาคอบ ไอเดสโกก เป็นผู้เชี่ยวชาญด้านการยืนยันตัวตนและ CTO ของ Curity โดยใช้เวลาส่วนใหญ่ทำงานเกี่ยวกับโซลูชันด้านความปลอดภัยในพื้นที่ API และเว็บ เขาเคยทำงานทั้งด้านการออกแบบและการใช้งานโซลูชัน OAuth และ OpenID Connect สำหรับองค์กรขนาดใหญ่และสตาร์ทอัพขนาดเล็ก
เคอร์ตี้ เป็นแพลตฟอร์มการจัดการข้อมูลประจำตัวและการเข้าถึง (IAM) ที่ทันสมัย สร้างขึ้นโดยใช้ Curity Identity Server ซึ่งเป็นโซลูชันที่ได้มาตรฐาน ออกแบบมาเพื่อรักษาความปลอดภัยในการตรวจสอบสิทธิ์และการอนุญาตสำหรับแอปพลิเคชัน API และบริการดิจิทัลในระดับขนาดใหญ่ รองรับโปรโตคอลต่างๆ เช่น OAuth 2.0 และ OpenID Connect เพื่อรวมศูนย์กระบวนการเข้าสู่ระบบ บังคับใช้นโยบายการเข้าถึงที่ละเอียด และออกโทเค็นที่ปลอดภัยสำหรับทั้งผู้ใช้ที่เป็นมนุษย์และไคลเอนต์เครื่อง รวมถึง API และบริการต่างๆ แพลตฟอร์มนี้ได้รับการออกแบบมาเพื่อความยืดหยุ่นและปรับขนาดได้ ช่วยให้องค์กรสามารถใช้งานได้ในสภาพแวดล้อมคลาวด์ ไฮบริด หรือภายในองค์กร ผสานรวมกับระบบที่มีอยู่ และมอบประสบการณ์การใช้งานที่ปลอดภัยและราบรื่นโดยไม่ต้องพึ่งพาโครงสร้างพื้นฐานด้านความปลอดภัยที่สร้างขึ้นเอง
คุณใช้เวลาส่วนใหญ่ในอาชีพการงานสร้างระบบรักษาความปลอดภัยด้านข้อมูลประจำตัวและ API ตั้งแต่ร่วมก่อตั้ง Curity จนถึงการเป็นผู้นำในฐานะ CTO ผ่านยุคของคลาวด์และ AI ในปัจจุบัน การเดินทางเหล่านั้นหล่อหลอมมุมมองของคุณอย่างไรว่าตัวแทน AI ควรได้รับการปฏิบัติเสมือนเป็นข้อมูลประจำตัวดิจิทัลชั้นหนึ่ง แทนที่จะเป็นเพียงซอฟต์แวร์ชิ้นหนึ่ง?
ในทุกสาขาเทคโนโลยีที่ผมเคยทำงานมา มีปัญหาหนึ่งที่เกิดขึ้นซ้ำแล้วซ้ำเล่า ไม่ว่าจะเป็นการประมวลผลบนคลาวด์หรือปัญญาประดิษฐ์ในปัจจุบัน หากซอฟต์แวร์ทำงานในนามของบุคคลหรือระบบอื่น คุณก็จะมีปัญหาเรื่องการระบุตัวตน
ด้วยการนำ AI แบบเอเจนต์มาใช้ในวงกว้าง ปัญหานี้จึงยิ่งทวีความรุนแรงขึ้น พฤติกรรมของพวกมันไม่ได้ถูกกำหนดไว้อย่างรัดกุมอีกต่อไป และพวกมันทำงานด้วยความเป็นอิสระในระดับที่องค์กรไม่เคยเห็นมาก่อน เอเจนต์ AI ตัดสินใจ เรียกใช้ API และเชื่อมโยงการกระทำต่างๆ ข้ามระบบ โดยมักจะไม่มีการกำกับดูแลโดยตรงจากมนุษย์ พฤติกรรมนี้สร้างความท้าทายด้านการระบุตัวตนและการเข้าถึง ซึ่งแตกต่างจากซอฟต์แวร์แบบดั้งเดิมอย่างสิ้นเชิง
การปฏิบัติต่อเอเจนต์ AI ในฐานะตัวตนดิจิทัลระดับแนวหน้าเป็นวิธีเดียวที่จะแก้ไขปัญหานี้ได้อย่างเหมาะสม หากองค์กรปฏิบัติต่อเอเจนต์ AI เหมือนเป็นเพียงกระบวนการหรือบัญชีบริการอีกบัญชีหนึ่ง พวกเขาจะสูญเสียการมองเห็นและการควบคุมอย่างรวดเร็ว และนั่นคือสูตรสำเร็จของวิกฤตด้านความปลอดภัย”
หลายองค์กรตื่นเต้นกับ AI ที่ทำงานแบบเอเจนต์ แต่ยังคงอยู่ในขั้นตอนการทดลอง จากสิ่งที่คุณเห็นในการใช้งานจริง ช่องโหว่ด้านการระบุตัวตนและการกำกับดูแลที่พบบ่อยที่สุดที่ขัดขวางไม่ให้องค์กรขยายการใช้งานเอเจนต์ได้อย่างปลอดภัยคืออะไร?
การทดลองส่วนใหญ่มักเกิดขึ้นในสภาพแวดล้อมจำลองที่แยกออกมา โดยไม่คำนึงถึงสิ่งที่เกิดขึ้นในระดับใหญ่ ในช่วงเริ่มต้นของการทดลอง ทีมงานมักจะให้คีย์ API กว้างๆ ข้อมูลประจำตัวที่ใช้ร่วมกัน หรือสิทธิ์การเข้าถึงระบบคลาวด์แบบครอบคลุมแก่เอเจนต์ เพียงเพื่อเริ่มต้นการทำงาน
แนวทางดังกล่าวใช้ไม่ได้ผลทันทีที่นำเอเจนต์ไปใช้งานจริงนอกเหนือจากโครงการนำร่อง เนื่องจากทีมรักษาความปลอดภัยไม่สามารถมองเห็นได้ว่าเอเจนต์เข้าถึงข้อมูลอะไรบ้าง การกระทำของเอเจนต์ หรือว่าเอเจนต์ได้กระทำการเกินขอบเขตที่กำหนดไว้หรือไม่ ไม่ว่าจะโดยตั้งใจหรือไม่ตั้งใจก็ตาม จุดบอดเหล่านี้ทำให้ไม่สามารถกำกับดูแลเอเจนต์ได้อย่างปลอดภัย ซึ่งเป็นเหตุผลว่าทำไมหลายองค์กรจึงประสบปัญหาในการก้าวข้ามโครงการนำร่องไปได้”
คุณได้กล่าวว่ากลไกการควบคุมที่เข้มงวดเป็นสิ่งจำเป็นสำหรับ AI ที่ทำหน้าที่เสมือนตัวแทน ในทางปฏิบัติแล้ว การออกแบบอัตลักษณ์ที่ดีสำหรับ AI ที่ทำหน้าที่เสมือนตัวแทนนั้นมีลักษณะอย่างไร และโดยทั่วไปแล้วบริษัทต่างๆ มักทำผิดพลาดในเรื่องนี้อย่างไร?
การออกแบบระบบระบุตัวตนที่ดีเริ่มต้นด้วยหลักการของสิทธิ์ขั้นต่ำสุดและการอนุญาตที่เชื่อมโยงกับเจตนาที่ชัดเจน ตัวแทน AI แต่ละตัวควรมีเอกลักษณ์ของตนเอง สิทธิ์ที่จำกัดขอบเขต และความสัมพันธ์ด้านความไว้วางใจที่กำหนดไว้อย่างชัดเจน (กฎที่ชัดเจนว่าระบบใดบ้างที่ได้รับอนุญาตให้โต้ตอบด้วย) โดยพื้นฐานแล้ว การเข้าถึงควรมีขอบเขตจำกัดตามวัตถุประสงค์ จำกัดเวลา และเพิกถอนได้ง่าย
สิ่งที่บริษัทต่างๆ ทำผิดพลาดคือการนำบัญชีบริการที่มีอยู่แล้วมาใช้ซ้ำ หรือคิดว่าเอเจนต์ภายในปลอดภัยโดยปริยาย ความคิดนั้นใช้ไม่ได้กับภัยคุกคามในโลกแห่งความเป็นจริง ผู้ไม่หวังดีมองหาจุดอ่อนเหล่านี้อย่างตั้งใจ และเอเจนต์ AI จะเพิ่มขอบเขตความเสียหายอย่างมากเมื่อการออกแบบระบบยืนยันตัวตนไม่รอบคอบ”
Curity ทำงานร่วมกับมาตรฐานต่างๆ เช่น OAuth และ OpenID Connect มานานแล้ว มาตรฐานการระบุตัวตนแบบเปิดมีความสำคัญเพียงใดต่อการทำให้ AI ที่ทำงานโดยตัวแทนสามารถทำงานร่วมกันได้และปลอดภัยในสภาพแวดล้อมองค์กรที่ซับซ้อน?
มาตรฐานแบบเปิดมีความสำคัญอย่างยิ่ง องค์กรต่างๆ ใช้ระบบการจัดการตัวตนที่ซับซ้อนอยู่แล้ว ซึ่งครอบคลุมแพลตฟอร์มคลาวด์ บริการ SaaS และ API ภายในองค์กร การใช้ AI ของ Agentic จะยิ่งเพิ่มความซับซ้อนเข้าไปอีก
หากปราศจากมาตรฐาน เอเจนต์แต่ละตัวจะกลายเป็นระบบบูรณาการเฉพาะตัว และเป็นข้อยกเว้นด้านความปลอดภัยอย่างถาวร แต่ด้วยมาตรฐานอย่าง OAuth และ OpenID Connect เอเจนต์สามารถได้รับการตรวจสอบสิทธิ์ อนุญาต และตรวจสอบได้เช่นเดียวกับเวิร์กโหลดอื่นๆ นี่เป็นแนวทางเดียวที่สามารถอำนวยความสะดวกในการขยายขนาดอย่างปลอดภัยในสภาพแวดล้อมองค์กรจริงได้”
ตัวตนที่ไม่ใช่มนุษย์กำลังเป็นที่แพร่หลายมากขึ้น ตั้งแต่บัญชีบริการไปจนถึงตัวตนของเครื่องจักร อะไรคือสิ่งที่ทำให้เอเจนต์ AI แตกต่างจากตัวตนที่ไม่ใช่มนุษย์ในอดีตอย่างสิ้นเชิงในมุมมองด้านความปลอดภัย?
ความแตกต่างที่สำคัญระหว่างเอเจนต์ AI สมัยใหม่กับตัวตนที่ไม่ใช่มนุษย์ (NHI) ในอดีตคือความเป็นอิสระ บัญชีบริการแบบดั้งเดิมจะทำตามที่โค้ดสั่งอย่างเคร่งครัด โดยถูกจำกัดอยู่เฉพาะภารกิจที่ได้รับมอบหมาย ในขณะที่เอเจนต์ AI จะตีความคำสั่ง ปรับพฤติกรรม และดำเนินการต่างๆ ที่ไม่ได้ระบุไว้ในสคริปต์อย่างชัดเจน ซึ่งทั้งหมดนี้เพิ่มความเสี่ยงหากไม่มีการควบคุมที่เหมาะสม
ความผิดพลาดเล็กน้อยเกี่ยวกับข้อมูลประจำตัวหรือการเข้าถึงอาจกลายเป็นหายนะได้อย่างรวดเร็ว เนื่องจากตัวแทนสามารถดำเนินการได้อย่างรวดเร็วและครอบคลุมหลายระบบ จากมุมมองด้านความปลอดภัย นี่เป็นความเสี่ยงที่สำคัญมาก
การตรวจสอบเส้นทางการทำงานและการบันทึกข้อมูลตามตัวตนมีความสำคัญเพียงใดต่อการกำกับดูแล AI ที่ทำงานโดยตัวแทน โดยเฉพาะในอุตสาหกรรมที่มีการควบคุม?
ระบบตรวจสอบการใช้งานไม่ควรเป็นเพียงสิ่งที่ “ควรมี” แต่ควรสร้างไว้ตั้งแต่เริ่มต้น ในสภาพแวดล้อมที่มีกฎระเบียบ องค์กรต่างๆ คาดว่าจะต้องตอบคำถามง่ายๆ แต่สำคัญยิ่ง เช่น ตัวแทนรายนี้เข้าถึงอะไรบ้าง เกิดขึ้นเมื่อใด และใครเป็นผู้ให้การอนุญาต?
การบันทึกข้อมูลตามตัวตนเป็นวิธีเดียวที่เชื่อถือได้ในการสร้างความรับผิดชอบในระดับนั้น นอกจากนี้ยังมีบทบาทสำคัญในการรับมือกับเหตุการณ์ต่างๆ หากไม่มีบริบทของตัวตนที่ชัดเจน แทบเป็นไปไม่ได้เลยที่จะทราบว่าปัญหาเกิดจากเอเจนต์ที่ทำงานผิดปกติ การรั่วไหลของข้อมูลประจำตัว หรือเพียงแค่ข้อความแจ้งเตือนที่ไม่ถูกต้อง
คุณมองเห็นความเสี่ยงในโลกแห่งความเป็นจริงอะไรบ้างที่จะเกิดขึ้นเมื่อองค์กรนำเอเจนต์ AI ที่มีสิทธิ์มากเกินไปหรือมีการตรวจสอบดูแลไม่ดีไปใช้ในสภาพแวดล้อมการใช้งานจริง?
ความเสี่ยงที่พบได้ทั่วไปอย่างหนึ่งคือการรวบรวมข้อมูลโดยไม่รู้ตัว ตัวแทนที่มีสิทธิ์มากเกินไปสามารถดึงข้อมูลที่ละเอียดอ่อนจากหลายระบบ (บันทึกของลูกค้า เอกสารภายใน บันทึกการทำงาน) แล้วเปิดเผยข้อมูลเหล่านั้นผ่านการแจ้งเตือน สรุป หรือการเชื่อมต่อกับระบบภายนอก
ความเสี่ยงอีกประการหนึ่งคือ ตัวแทนที่มีสิทธิ์เข้าถึงระดับผู้ดูแลระบบทำการเปลี่ยนแปลงครั้งใหญ่ด้วยความเร็วของเครื่องจักร ซึ่งก่อให้เกิดความเสียหายมากกว่าที่มนุษย์จะทำได้ในระยะเวลาอันสั้น ตัวอย่างเช่น การแก้ไขทรัพยากรบนคลาวด์ การปิดใช้งานการควบคุมความปลอดภัย หรือการเรียกใช้เวิร์กโฟลว์อัตโนมัติโดยไม่มีการกำกับดูแล
เหตุการณ์เหล่านี้อาจมีเจตนาร้าย แต่ก็ไม่จำเป็นเสมอไป ตัวแทนที่มีสิทธิ์มากเกินไปหรือตัวแทนที่ได้รับการตรวจสอบอย่างไม่รอบคอบ อาจเพียงแค่ทำงานโดยอาศัยสมมติฐานที่ล้าสมัยหรือไม่ถูกต้อง ซึ่งทำให้ความผิดพลาดขยายวงกว้างไปยังหลายระบบก่อนที่ใครจะสังเกตเห็น
แต่จากมุมมองของผู้โจมตี ข้อมูลประจำตัวของเอเจนต์ที่ถูกบุกรุกนั้นมีค่าอย่างยิ่ง มันช่วยให้สามารถเคลื่อนย้ายข้าม API และบริการต่างๆ ได้ โดยมักจะได้รับสิทธิ์การเข้าถึงในระดับที่ผู้ใช้ทั่วไปไม่มีวันได้รับ หากไม่มีการควบคุมและตรวจสอบข้อมูลประจำตัวที่เข้มแข็ง องค์กรมักจะค้นพบความล้มเหลวเหล่านี้ก็ต่อเมื่อเกิดความเสียหายร้ายแรงขึ้นแล้ว”
สำหรับบริษัทที่กำลังเปลี่ยนจากโครงการนำร่องไปสู่การใช้งานจริงในระบบเอเจนต์ ควรตัดสินใจเรื่องการระบุตัวตนและการเข้าถึงอย่างไรบ้างตั้งแต่เนิ่นๆ เพื่อหลีกเลี่ยงการออกแบบใหม่ที่เสียค่าใช้จ่ายสูงในภายหลัง?
องค์กรควรตัดสินใจตั้งแต่เนิ่นๆ เกี่ยวกับวิธีการออกรหัสประจำตัวให้กับตัวแทน วิธีการอนุมัติสิทธิ์ และวิธีการตรวจสอบการเข้าถึงเมื่อเวลาผ่านไป โดยกำหนดขอบเขตของรหัสประจำตัวไว้ล่วงหน้า
การนำระบบควบคุมตัวตนมาใช้ย้อนหลังนั้นมักก่อให้เกิดปัญหาเสมอ ตัวแทนมักถูกฝังลึกอยู่ในเวิร์กโฟลว์โดยใช้ข้อมูลประจำตัวร่วมกันหรือบทบาทที่กว้างขวาง ดังนั้นการจำกัดการเข้าถึงหลังจากนั้นจะทำลายสมมติฐานที่ระบบใช้ ซึ่งท้ายที่สุดจะทำให้เวิร์กโฟลว์ล้มเหลวและบั่นทอนความเชื่อมั่นในเทคโนโลยี การออกแบบตัวตน ขอบเขต และข้อจำกัดการเข้าถึงที่เหมาะสมตั้งแต่เริ่มต้นนั้นประหยัดกว่ามากและปลอดภัยกว่ามากเช่นกัน
การบูรณาการข้อมูลระบุตัวตนมักกลายเป็นปัญหาคอขวดที่จุดใดบ่อยที่สุดเมื่อนำ AI เชิงตัวแทนมาใช้ และแนวทางปฏิบัติที่ดีที่สุดที่จะช่วยลดปัญหาดังกล่าวคืออะไร?
การจัดการข้อมูลประจำตัวอาจกลายเป็นปัญหาคอขวดได้ แต่เฉพาะเมื่อถูกมองข้ามไป ทีมงานมักมุ่งเน้นไปที่การสร้างความสามารถของเอเจนต์ที่น่าประทับใจก่อน แล้วจึงตระหนักในภายหลังว่าจำเป็นต้องบูรณาการเข้ากับระบบ IAM, เกตเวย์ API และแพลตฟอร์มการบันทึกข้อมูลเพื่อให้มีความปลอดภัยอย่างแท้จริง
แนวทางที่ดีที่สุดคือเริ่มต้นด้วยความเข้าใจที่ชัดเจนและการใช้งานแพลตฟอร์มการระบุตัวตนอย่างถูกต้อง จากนั้นจึงออกแบบเอเจนต์ให้เข้ากับแพลตฟอร์มเหล่านั้น องค์กรควรนำมาตรฐานและโครงสร้างพื้นฐานที่มีอยู่มาใช้ซ้ำแทนที่จะข้ามขั้นตอนเหล่านั้น การลดขั้นตอนในส่วนนี้จะก่อให้เกิดปัญหาในอนาคตอย่างหลีกเลี่ยงไม่ได้ เมื่อมีการสร้างระบบระบุตัวตนตั้งแต่เริ่มต้น จะช่วยเร่งการใช้งานแทนที่จะทำให้ช้าลง
สำหรับผู้นำด้านความปลอดภัยและวิศวกรรมที่ต้องการนำ AI แบบเอเจนต์มาใช้ แต่กังวลเกี่ยวกับการกำกับดูแลและความเสี่ยง คุณมีคำแนะนำอะไรบ้างในการวางแผนเส้นทางของพวกเขา?
ชะลอความเร็วลงสักหน่อยเพื่อให้วางรากฐานได้อย่างถูกต้อง ตัวแทน AI ต้องได้รับการปฏิบัติเสมือนเป็นตัวตน ดังนั้นคุณจึงต้องใช้หลักการกำกับดูแลแบบเดียวกับที่ใช้กับมนุษย์ และยืนยันให้มีการเปิดเผยข้อมูลตั้งแต่เริ่มต้น หากองค์กรทำเช่นนั้น การขยายขนาด AI ตัวแทนก็จะกลายเป็นเรื่องของการรักษาความปลอดภัย ไม่ใช่การกระโดดลงไปโดยปราศจากความเชื่อมั่นและมีความเสี่ยง
ขอบคุณสำหรับบทสัมภาษณ์ที่ดี ผู้อ่านที่ต้องการเรียนรู้เพิ่มเติมควรเยี่ยมชม เคอร์ตี้.












