ผู้นำทางความคิด
ทำไม AI ที่มีการกำกับดูแลจึงเป็นขอบเขตใหม่ของสถานที่ทำงาน

เราใช้เวลาหนึ่งทศวรรษในการต่อสู้กับ shadow IT แอป SaaS ที่ไม่ได้รับอนุญาต สเปรดชีตที่ไม่ได้รับอนุญาต บัญชี Dropbox ที่ไม่ได้รับอนุญาต ผู้นำ IT สร้างโปรแกรมการปฏิบัติตามข้อกำหนดทั้งหมดเพื่อแก้ไขปัญหานี้ และส่วนใหญ่ยังคงแพ้ รายงาน State of Shadow AI ของ Reco AI ในปี 2025 พบว่าเพียง 47% ของแอป SaaS ภายในองค์กรทั่วไปได้รับการอนุมัติอย่างเป็นทางการ — และองค์กรเฉลี่ยกำลังจัดการ 490 แอปเหล่านี้
นั่นคือปัญหาเก่า ปัญหาใหม่นี้แย่กว่า
ปัญหา Shadow AI ต่างจากครั้งก่อน
เมื่อพนักงานลงทะเบียนสำหรับเครื่องมือจัดการโครงการที่ไม่ได้รับอนุญาต อันตรายจะถูกจำกัดอยู่ในขอบเขต ทีมงานมีงานที่อยู่ในสถานที่ที่ไม่ถูกต้อง อาจมีข้อมูลรั่วไหลออกไปได้ ประเภทของการรั่วไหลของข้อมูลค่อนข้างคาดเดาได้
AI ต่างออกไป พนักงานกำลังใช้เครื่องมือ AI เพื่อเขียนการสื่อสารกับลูกค้า สร้างรายงานทางการเงิน สรุปการประชุมที่มีข้อมูลลับ และสร้างการทำงานอัตโนมัติ บ่อยครั้งโดยไม่บอกใคร ดัชนีการทำงานของ Microsoft ในปี 2024 พบว่า 78% ของผู้ใช้ AI นำเครื่องมือ AI ของตนเองมาที่ทำงาน ไม่ใช่เพราะพวกเขาพยายามที่จะยากหรือชั่วร้าย แต่เพราะเครื่องมือเหล่านี้มีประโยชน์จริงๆ และพวกเขารู้สึกถึงแรงกดดันในการทำงานให้ดีขึ้น แต่องค์กรของพวกเขาก็มีกระบวนการ ขั้นตอน และเครื่องมือที่ช้าเกินไป
ผลลัพธ์เหล่านี้คือปัญหา เมื่อเครื่องมือ AI สร้างสัญญาลูกค้า สรุปการโทรทางกฎหมาย หรือสร้างรายงานประจำไตรมาสของ董事 การเสี่ยงไม่ใช่แค่ “เราไม่รู้ว่าใช้เครื่องมืออะไร” แต่เป็นว่าการปฏิบัติต่อข้อมูล ความถูกต้อง และการตัดสินใจที่ฝังอยู่ในผลลัพธ์เหล่านี้เป็นเรื่องที่องค์กรไม่สามารถมองเห็นได้ ไม่มีใครทบทวนคำสั่ง ไม่มีใครตรวจสอบผลลัพธ์ ไม่มีใครรู้ว่ามันเกิดขึ้น และเนื่องจาก AI ดูเหมือนจะมั่นใจมาก ผู้ใช้ส่วนใหญ่จะไม่ตรวจสอบแหล่งข้อมูลและยอมรับผลลัพธ์โดยไม่ลังเล
การวิเคราะห์ shadow AI ของ KPMG ในปี 2025 รายงานว่า 44% ของพนักงานที่ใช้ AI ที่ทำงานได้ทำเช่นนั้นในลักษณะที่ขัดแย้งกับนโยบายและแนวปฏิบัติของบริษัท นั่นไม่ใช่พฤติกรรมที่ไม่สำคัญ นั่นคือเกือบครึ่งหนึ่งของพนักงาน
ทำไมตัวแทนอัตโนมัติทำให้ปัญหานี้ยากขึ้น (และดีขึ้น)
นี่คือที่ที่การสนทนาเริ่มมีความน่าสนใจ เราไม่ได้พูดถึงพนักงานที่วางข้อความลงใน ChatGPT อีกต่อไป เรากำลังเข้าสู่ยุคของตัวแทน AI — ระบบอัตโนมัติที่สามารถทำงานอย่างต่อเนื่อง ทำงานหลายขั้นตอน เชื่อมต่อกับเครื่องมือองค์กร และดำเนินการโดยไม่ต้องมีมนุษย์ในวงจรการตัดสินใจทุกครั้ง
รายงาน Tech Trends ของ Deloitte ในปี 2025 อธิบายสิ่งนี้ว่าเป็นการเปลี่ยนแปลงไปสู่ “แรงงานที่มีพื้นฐานจากซิลิกอน” และเน้นว่าหลายๆ การใช้งาน AI ตัวแทนในระยะแรกล้มเหลวเพราะองค์กรพยายามที่จะทำให้กระบวนการที่มีอยู่เป็นอัตโนมัติแทนการคิดใหม่ว่างานควรไหลไปอย่างไร
นี่คือจุดแยกทาง มีทางเลือกสองทางสำหรับ AI ตัวแทน;
ทางที่หนึ่ง: shadow IT ที่แย่กว่า พนักงานสร้างตัวแทนโดยใช้บัญชีส่วนตัว ทำงานบน IT ของบริษัท เชื่อมต่อกับเครื่องมือของบริษัทผ่านคีย์ API ส่วนบุคคล สร้างผลลัพธ์ที่ทีมอื่นไม่สามารถมองเห็น ตรวจสอบ หรือทำซ้ำได้ ตัวแทนจะทำงานรายงานประจำวัน รายงานอาจผิดพลาด ไม่มีใครตรวจพบเป็นเวลาหลายสัปดาห์เพราะไม่มีใครรู้ว่ามันอยู่ที่นี่
ทางที่สอง: การทำงานอัตโนมัติที่มีการกำกับดูแล ตัวแทนเดียวกันทำงานรายงานประจำวัน — แต่ภายในสภาพแวดล้อมที่ทีมสามารถมองเห็นได้ว่ามันทำอะไรอยู่ มันสัมผัสกับข้อมูลอะไร ใครตั้งค่า และผลลัพธ์เป็นอย่างไร ตัวแทนถูกแบ่งปัน ไม่ใช่ส่วนตัว ผลลัพธ์เป็นไปได้ การอนุญาตถูกจำกัด และเมื่อมีอะไรผิดพลาด มีประวัติที่จะตาม
ความแตกต่างระหว่างสองทางนี้ไม่ใช่เทคโนโลยี แต่เป็นสภาพแวดล้อม
AI ที่มีการกำกับดูแลในทางปฏิบัติเป็นอย่างไร
การกำกับดูแลเป็นคำที่ทำให้ผู้สร้างสิ่งเหล่านี้ขัดใจ มันหมายถึง “ช้า” มีการอนุมัติเพิ่มเติม มีกระบวนการเพิ่มเติม มีการเสียดสีระหว่างผู้ที่ทำงานกับผู้ที่จัดการความเสี่ยง
แต่ AI ที่มีการกำกับดูแลไม่จำเป็นต้องทำงานในลักษณะนั้น การใช้งานที่ดีที่สุดมีลักษณะที่เหมือนกัน;
การมองเห็นโดยค่าเริ่มต้น ผลลัพธ์ที่สร้างโดย AI ทุกอย่าง — ทุกรายงาน ทุกการแจ้งเตือน ทุกการสร้าง稿 — มองเห็นได้โดยทีม ไม่ได้ฝังอยู่ในประวัติการสนทนาส่วนตัวของใครสักคน นี่ไม่ใช่เรื่องของการตรวจสอบ แต่เป็นเรื่องของบริบทที่ใช้ร่วมกัน เมื่อตัวแทนสร้างการวิเคราะห์แข่งขันรายสัปดาห์ ทีมงานทั้งหมดควรจะเห็นได้ ถามได้ และสร้างงานต่อ
การอนุญาตที่จำกัด ไม่ใช่การเข้าถึงที่ครอบคลุม ตัวแทนจดบันทึกข้อผิดพลาดไม่ต้องการการเข้าถึง CRM ตัวแทนจดบันทึกเนื้อหาสังคมไม่ต้องการการเข้าถึงข้อมูลทางการเงิน หลักการของการอนุญาตที่น้อยที่สุดไม่ใช่เรื่องใหม่ มันแค่ไม่เคยถูกนำไปใช้กับระบบ AI — และควรจะถูกใช้
ประวัติการตรวจสอบที่มีอยู่จริง คู่มือความปลอดภัยของ AI ตัวแทนของ McKinsey เน้นว่าตัวแทน AI อัตโนมัตินำเสนอ “ความเสี่ยงและความอ่อนไหวที่ซับซ้อนและใหม่ๆ ที่ต้องการการดำเนินการและความสนใจทันที” หนึ่งในพื้นฐานที่สุด: หากคุณไม่สามารถติดตามสิ่งที่ตัวแทนได้ทำ สิ่งที่เข้าถึงข้อมูลอะไร และการตัดสินใจอะไร คุณไม่สามารถกำกับดูแลมันได้ จุดสิ้นสุด
การควบคุมระดับทีม ไม่ใช่แค่ระดับ IT สิ่งนี้คือส่วนที่ผิดพลาดของกรอบการกำกับดูแลส่วนใหญ่ พวกเขารวมการควบคุม AI ทั้งหมดไว้ที่ IT หรือความปลอดภัย ซึ่งสร้างปัญหาการขัดขวางที่ทำให้เกิด shadow AI ในที่แรก องค์กรที่ทำสิ่งนี้ได้ดีคือการผลักดันการควบคุมไปที่ระดับทีม — ให้หัวหน้าทีมและผู้จัดการกำหนดค่า อนุญาต และตรวจสอบตัวแทนโดยทีมใช้ ภายในขอบเขตที่ IT ตั้งค่าไว้ แต่ไม่ต้องควบคุมอย่างใกล้ชิด
ที่ที่องค์กรทำถูกต้อง
บริษัทที่ใช้ตัวแทน AI ได้ดีไม่ใช่บริษัทที่มีโมเดลที่ซับซ้อนที่สุด แต่เป็นบริษัทที่มีพรมแดนการดำเนินการที่ชัดเจนที่สุด
ฉันเห็นผลลัพธ์ที่แข็งแกร่งที่สุดในสามพื้นที่;
การรายงานและการตรวจสอบ ตัวแทนจัดทำรายงานตามกำหนด — รายงานประจำวัน สรุปเมตริกสัปดาห์ สรุปบันทึกข้อผิดพลาด — และส่งตรงไปยังช่องทางทีม คุณค่าในนี้ไม่ใช่แค่อัตโนมัติ แต่เป็นความสม่ำเสมอ รายงานจะทำงานทุกเช้า ไม่ว่าใครจะจำไว้ว่าจะดึงข้อมูลหรือไม่ และเนื่องจากรายงานนี้มองเห็นได้โดยทีม จึงสามารถจับข้อผิดพลาดได้เร็วขึ้น
การทำงานและกระบวนการสร้างเนื้อหา ตัวแทนสร้างร่างแรกของการอัปเดตภายใน สรุปการประชุม หรือเนื้อหาที่จะส่งออก — จากนั้นแสดงผลลัพธ์เหล่านี้เพื่อการตรวจสอบของมนุษย์ สิ่งสำคัญของการกำกับดูแลคือที่นี่ เนื่องจากมาตรฐานคุณภาพต่างออกไปเมื่อผลลัพธ์จะส่งให้ลูกค้าเทียบกับช่องทาง Slack ภายใน
การวิเคราะห์และการแจ้งเตือน ตัวแทนจดบันทึกแผงควบคุม ระบุความผิดปกติ และส่งการแจ้งเตือนเมื่อเมตริกส์อยู่นอกช่วงที่คาดหวัง สิ่งนี้แทนที่ “ใครควรจะดูสิ่งนี้” ที่ทุกทีมที่เคยเสียสุดสัปดาห์เพราะปัญหาในการผลิตที่ไม่ได้รับการสังเกต
สิ่งที่องค์กรส่วนใหญ่ยังคงทำผิด
ข้อผิดพลาดที่ใหญ่ที่สุดคือการรักษาการกำกับดูแล AI เป็นปัญหาเชิงนโยบายแทนการเป็นปัญหาเชิงโครงสร้าง
คุณสามารถเขียนนโยบายการใช้ที่ยอมรับได้มากเท่าที่คุณต้องการ หากพนักงานของคุณไม่มีสภาพแวดล้อมที่ได้รับอนุญาตและใช้งานง่ายสำหรับการใช้ AI ที่ตอบสนองความต้องการรายวัน พวกเขาจะหาทางข้ามนโยบายของคุณ นั่นไม่ใช่ปัญหาผู้คน แต่เป็นปัญหาในการออกแบบ
การวิเคราะห์ shadow AI ของ IDC ระบุจุดนี้อย่างชัดเจน: ความสามารถในการผลิต AI ที่ซ่อนอยู่ “กำลังขัดขวางการนำ AI ขององค์กรมาใช้” เนื่องจากองค์กรติดอยู่ระหว่างการได้รับผลประโยชน์ และกลัวความเสี่ยง ผลลัพธ์คือการไม่ดำเนินการ — ซึ่งเป็นผลลัพธ์ที่เลวร้ายที่สุด เพราะจะทำให้เกิดการนำ AI มาใช้โดยไม่มีการควบคุม
ข้อผิดพลาดที่สองคือการรักษาการกำกับดูแลและความเร็วเป็นสิ่งที่ตรงกันข้าม พวกมันไม่ใช่ การใช้งาน AI ที่มีการกำกับดูแลที่ดีที่สุดก็เป็นสภาพแวดล้อมที่เร็วที่สุด — เนื่องจากทีมไม่ใช้เวลาทำซ้ำงานที่มีอยู่แล้ว แก้ปัญหาเกี่ยวกับตัวแทน AI ที่ไม่สามารถมองเห็นได้ หรือสร้างกระบวนการทำงานใหม่เพราะมีคนออกจากบริษัทและบัญชี AI ส่วนตัวของพวกเขาก็ออกไปด้วย
ขอบเขตคือสภาพแวดล้อม ไม่ใช่โมเดล
ความสนใจของอุตสาหกรรมมุ่งเน้นไปที่ความสามารถของโมเดล หน้าต่างบริบทที่ใหญ่ขึ้น การให้เหตุผลที่ดีขึ้น การรับข้อมูลหลายรูปแบบ สิ่งเหล่านี้มีความสำคัญ แต่สำหรับทีมส่วนใหญ่ที่พยายามทำงานให้เสร็จสิ้น จุดอุดตันไม่ใช่โมเดล แต่เป็นสภาพแวดล้อมที่โมเดลทำงาน
ทีมสามารถมองเห็นได้ว่ามันทำอะไรอยู่หรือไม่? ทีมสามารถควบคุมสิ่งที่มันเข้าถึงได้หรือไม่? ทีมสามารถแบ่งปันสิ่งที่มันสร้างได้หรือไม่? ทีมสามารถไว้วางใจว่ามันทำงานกับข้อมูลที่ถูกต้องและข้อจำกัดที่ถูกต้องหรือไม่?
สิ่งเหล่านี้คือคำถามโครงสร้าง ไม่ใช่คำถามเกี่ยวกับโมเดล สิ่งเหล่านี้คือสิ่งที่จะแยกองค์กรที่ได้รับคุณค่าที่แท้จริงและยั่งยืนจาก AI ออกจากองค์กรที่เพิ่มอีกชั้นของ shadow IT
ขอบเขตไม่ใช่การสร้างโมเดลที่ฉลาดขึ้น แต่เป็นการสร้างสภาพแวดล้อมที่โมเดลที่ฉลาดสามารถทำงานได้อย่างเชื่อถือได้












