ปัญญาประดิษฐ์
เหตุใด AI ที่มีเอเจนต์จึงยังคงล้มเหลวในโลกแห่งความเป็นจริง

ในช่วงไม่กี่ปีที่ผ่านมา เราได้เห็นระบบ AI ที่มีลักษณะเป็นเอเจนต์สร้างการสาธิตที่น่าประทับใจ พวกมันเขียนโค้ดที่ผ่านการทดสอบ พวกมันค้นหาข้อมูลบนเว็บและตอบคำถามที่ซับซ้อน พวกมันใช้งานส่วนติดต่อผู้ใช้ซอฟต์แวร์ได้อย่างแม่นยำอย่างน่าทึ่ง การนำเสนอในงานประชุมทุกครั้ง ข่าวประชาสัมพันธ์ทุกฉบับ รายงานการเปรียบเทียบมาตรฐานทุกฉบับ ล้วนเน้นย้ำถึงการเกิดขึ้นของ AI ที่มีลักษณะเป็นเอเจนต์
แต่มีปัญหาซ่อนอยู่เบื้องหลังการสาธิตที่น่าประทับใจเหล่านี้ เมื่อระบบเหล่านี้ถูกย้ายจากสภาพแวดล้อมที่มีการควบคุมไปสู่การใช้งานจริง มักจะเกิดปัญหาขึ้น ล้มเหลว ในรูปแบบที่เกณฑ์มาตรฐานไม่เคยคาดการณ์มาก่อน โปรแกรมสร้างโค้ดที่ทำงานได้อย่างสมบูรณ์แบบกับตัวอย่างที่คัดสรรมา 100 ตัวอย่าง เริ่มแสดงข้อผิดพลาดในกรณีพิเศษที่ไม่เคยพบมาก่อน ตัวแทนค้นหาเว็บที่ได้ความแม่นยำ 85% ในห้องปฏิบัติการ กลับแสดงผลลัพธ์ที่ไม่เกี่ยวข้องมากขึ้นเรื่อยๆ เมื่อพฤติกรรมของผู้ใช้เปลี่ยนแปลงไป ระบบวางแผนที่ประสานงานการเรียกใช้ API สิบครั้งได้อย่างไร้ที่ติระหว่างการทดสอบ กลับล้มเหลวเมื่อพบกับรูปแบบการตอบสนอง API ที่ไม่คาดคิด
ระบบเหล่านี้ล้มเหลวไม่ใช่เพราะขาดสติปัญญา แต่เป็นเพราะขาด... การปรับตัวปัญหาอยู่ที่ว่าเอเจนต์ AI เรียนรู้และปรับตัวอย่างไร ในขณะที่ระบบล้ำสมัยถูกสร้างขึ้นบนแบบจำลองพื้นฐานขนาดใหญ่ แต่สติปัญญาเพียงอย่างเดียวไม่เพียงพอ เอเจนต์จะต้องสามารถปรับตัวได้เพื่อทำงานเฉพาะด้าน ระบบ AI เอเจนต์ในปัจจุบันไม่สามารถทำเช่นนั้นได้เนื่องจากข้อจำกัดเชิงโครงสร้างในการออกแบบและการฝึกฝน ในบทความนี้ เราจะสำรวจข้อจำกัดเหล่านี้และเหตุผลที่มันยังคงอยู่
ภาพลวงตาแห่งความสามารถใน Demos
รูปแบบความล้มเหลวที่อันตรายที่สุดใน AI สมัยใหม่คือภาพลวงตาของความสามารถ การสาธิตสั้นๆ มักซ่อนความซับซ้อนที่แท้จริงไว้ พวกมันทำงานบนชุดข้อมูลที่สะอาด API ที่คาดเดาได้ และขอบเขตงานที่แคบ สภาพแวดล้อมการใช้งานจริงนั้นตรงกันข้าม ฐานข้อมูลไม่สมบูรณ์ โครงสร้างข้อมูลเปลี่ยนแปลงโดยไม่แจ้งให้ทราบล่วงหน้า บริการหมดเวลา สิทธิ์การเข้าถึงขัดแย้งกัน และผู้ใช้ถามคำถามที่ขัดกับสมมติฐานพื้นฐานของระบบ
นี่คือจุดที่ความซับซ้อนของการผลิตเพิ่มขึ้นอย่างมาก กรณีพิเศษเพียงกรณีเดียวที่ปรากฏเพียงครั้งเดียวในการสาธิต อาจเกิดขึ้นหลายพันครั้งต่อวันในการใช้งานจริง ข้อผิดพลาดเล็กๆ น้อยๆ ที่เกิดขึ้นจากความน่าจะเป็นจะสะสมมากขึ้นเรื่อยๆ ตัวแทนที่ "ถูกต้องเป็นส่วนใหญ่" จะกลายเป็นสิ่งที่เชื่อถือไม่ได้อย่างรวดเร็วในการปฏิบัติงานจริง
แก่นแท้ของปัญหาอยู่ที่การพึ่งพาโมเดลพื้นฐานที่ตายตัว โมเดลเหล่านี้เก่งกาจในการเติมเต็มรูปแบบ แต่พฤติกรรมของเอเจนต์นั้นเป็นไปตามลำดับและมีสถานะ การกระทำแต่ละอย่างขึ้นอยู่กับผลลัพธ์ของการกระทำก่อนหน้า ในสถานการณ์เช่นนี้ ความไม่แน่นอนทางสถิติจะเพิ่มพูนขึ้นอย่างรวดเร็ว ความผิดพลาดเล็กน้อยในช่วงต้นของงานอาจลุกลามกลายเป็นวงวน ทางตัน หรือการกระทำที่ทำลายล้างในภายหลัง นี่คือเหตุผลที่เอเจนต์ที่ดูเหมือนมีความสามารถในระหว่างการประเมินมักจะเสื่อมประสิทธิภาพลงอย่างรวดเร็วเมื่อนำไปใช้งานจริง
ปัญหาไม่ได้อยู่ที่ฟีเจอร์ที่ขาดหายไป แต่เป็นเพราะโมเดลอเนกประสงค์ถูกขอให้ทำงานเหมือนโมเดลเฉพาะทาง โดยไม่ได้รับอนุญาตให้เรียนรู้จากสภาพแวดล้อม
จากความฉลาดทั่วไปสู่ความสามารถเฉพาะด้าน
โมเดลพื้นฐานถูกออกแบบมาให้เป็นแบบทั่วไป โดยจะเข้ารหัสความรู้ที่กว้างขวางและรูปแบบการให้เหตุผลที่ยืดหยุ่น อย่างไรก็ตาม ตัวแทนการผลิตจะต้องมีความเฉพาะเจาะจงตามสถานการณ์ พวกเขาจำเป็นต้องเข้าใจกฎเกณฑ์ ข้อจำกัด และรูปแบบความล้มเหลวเฉพาะขององค์กรและเครื่องมือต่างๆ หากปราศจากสิ่งนี้ พวกเขาจะเหมือนกับคนที่อ่านคู่มือทุกเล่มแต่ไม่เคยทำงานจริงเลยสักวัน
การเชื่อมช่องว่างนี้จำเป็นต้องมีการทบทวนกระบวนการปรับตัวใหม่ทั้งหมด วิธีการในปัจจุบันแบ่งออกเป็นสองประเภทใหญ่ๆ คือ ค่ายที่บกพร่อง: การฝึกฝนตัวแทน AI หลักใหม่ หรือการปรับแต่งเครื่องมือภายนอกที่มันใช้ แต่ละวิธีแก้ปัญหาหนึ่งอย่างแต่ก็สร้างปัญหาอื่นตามมา ทำให้ระบบของเรามีความยืดหยุ่นน้อยเกินไป แพงเกินไป หรือไม่เสถียรเกินไปสำหรับสภาพแวดล้อมการใช้งานจริงที่ความสม่ำเสมอและต้นทุนมีความสำคัญ
กับดักตัวแทนแบบโมโนลิธิก
แนวทางแรกคือ การปรับตัวของเอเจนต์ (Agent Adaptation) ซึ่งพยายามทำให้ LLM หลักฉลาดขึ้นในการใช้เครื่องมือ โดยพื้นฐานแล้วเป็นการสอน AI ให้มีทักษะเฉพาะที่จำเป็นในการใช้เครื่องมือ นักวิจัยแบ่งวิธีการนี้ออกเป็นสองประเภทเพิ่มเติม บางวิธีฝึกเอเจนต์โดยใช้ผลตอบรับโดยตรงจากเครื่องมือ เช่น ความสำเร็จของการคอมไพล์โค้ด หรือผลลัพธ์จากเครื่องมือค้นหา ในขณะที่วิธีอื่นๆ ฝึกเอเจนต์โดยอิงจากความถูกต้องของผลลัพธ์สุดท้าย เช่น คำตอบที่ถูกหรือผิด
ระบบเช่น DeepSeek-R1 และ ค้นหา-อาร์1 แสดงให้เห็นว่าเอเจนต์สามารถเรียนรู้กลยุทธ์ที่ซับซ้อนและหลายขั้นตอนสำหรับการใช้งานเครื่องมือได้ อย่างไรก็ตาม พลังนี้มาพร้อมกับต้นทุนที่สูงมาก การฝึกโมเดลที่มีพารามิเตอร์นับพันล้านตัวนั้นสิ้นเปลืองทรัพยากรการคำนวณอย่างมาก ที่สำคัญกว่านั้นคือ มันสร้างปัญญาที่แข็งกระด้างและเปราะบาง การผสมผสานความรู้ของเอเจนต์และกฎการใช้งานเครื่องมือเข้าด้วยกัน ทำให้การอัปเดตช้า มีความเสี่ยง และไม่เหมาะสมกับความต้องการทางธุรกิจที่เปลี่ยนแปลงอย่างรวดเร็ว การปรับตัวของเอเจนต์ให้เข้ากับงานหรือเครื่องมือใหม่มีความเสี่ยงที่จะ “โศกนาฏกรรมหลงลืม“ซึ่งทำให้สูญเสียทักษะที่เคยเชี่ยวชาญไป เปรียบเสมือนการต้องสร้างสายการผลิตในโรงงานใหม่ทั้งหมดทุกครั้งที่ต้องการเพิ่มชิ้นส่วนใหม่”
ปัญหาชุดเครื่องมือที่เปราะบาง
เมื่อตระหนักถึงข้อจำกัดเหล่านี้ แนวทางหลักประการที่สองคือ... การปรับเครื่องมือโดยจะคงเอเจนต์หลักไว้เช่นเดิม และหันมาปรับแต่งเครื่องมือในระบบนิเวศแทน วิธีนี้มีความยืดหยุ่นและประหยัดต้นทุนมากกว่า เครื่องมือบางอย่างได้รับการฝึกฝนแบบทั่วไป เช่น ตัวดึงข้อมูลการค้นหามาตรฐาน และนำมาใช้งาน ในขณะที่เครื่องมืออื่นๆ ได้รับการปรับแต่งเป็นพิเศษเพื่อเสริมเอเจนต์ที่คงไว้ โดยเรียนรู้จากผลลัพธ์ของเอเจนต์นั้นเพื่อเป็นผู้ช่วยที่ดีขึ้น
รูปแบบนี้มีศักยภาพมหาศาลในการเพิ่มประสิทธิภาพ มีการศึกษาครั้งสำคัญเกี่ยวกับระบบที่เรียกว่า... s3 ได้แสดงให้เห็นถึงศักยภาพของแนวทางนี้ โดยได้ฝึกฝนเครื่องมือ "ค้นหา" ขนาดเล็กและเฉพาะทางเพื่อสนับสนุน LLM ที่หยุดนิ่ง ซึ่งให้ประสิทธิภาพเทียบเท่ากับเอเจนต์ที่ได้รับการฝึกฝนใหม่ทั้งหมด เช่น Search-R1 แต่ใช้ข้อมูลการฝึกฝนน้อยกว่าถึง 70 เท่า แนวคิดก็คือ ทำไมต้องสอนนักฟิสิกส์อัจฉริยะให้ใช้แคตตาล็อกห้องสมุดใหม่? แทนที่จะทำเช่นนั้น ก็แค่ฝึกฝนบรรณารักษ์ที่ดีกว่าซึ่งเข้าใจความต้องการของนักฟิสิกส์ก็พอแล้ว
อย่างไรก็ตาม โมเดลกล่องเครื่องมือก็มีข้อจำกัดของมันเอง ความสามารถของระบบโดยรวมนั้นถูกจำกัดด้วยเหตุผลพื้นฐานของ LLM ที่ตายตัว คุณอาจให้มีดผ่าตัดที่คมกว่าแก่ศัลยแพทย์ แต่คุณไม่สามารถทำให้คนที่ไม่ใช่ศัลยแพทย์ทำการผ่าตัดหัวใจได้ ยิ่งไปกว่านั้น การจัดการชุดเครื่องมือที่ปรับเปลี่ยนได้ซึ่งกำลังเติบโตนั้นกลายเป็นความท้าทายในการบูรณาการที่ซับซ้อน เครื่องมือ A อาจปรับให้เหมาะสมกับตัวชี้วัดหนึ่งที่ขัดกับข้อกำหนดอินพุตของเครื่องมือ B ประสิทธิภาพของระบบจึงขึ้นอยู่กับความสมดุลที่เปราะบางระหว่างส่วนประกอบที่เชื่อมต่อกัน
ความท้าทายในการปรับตัวร่วมกัน
นี่คือประเด็นสำคัญของปัญหาการปรับตัวที่บกพร่องในรูปแบบ AI ที่มีอยู่ในปัจจุบัน เราปรับตัวได้เพียงอย่างใดอย่างหนึ่งระหว่างตัวแทนหรือเครื่องมือ แต่ไม่ใช่ทั้งสองอย่างพร้อมกันอย่างมีเสถียรภาพ สภาพแวดล้อมการผลิตไม่ได้หยุดนิ่ง ข้อมูลใหม่ ความต้องการของผู้ใช้ใหม่ และเครื่องมือใหม่เกิดขึ้นอย่างต่อเนื่อง ระบบ AI ที่ไม่สามารถพัฒนาทั้ง "สมอง" และ "มือ" ของตนเองได้อย่างราบรื่นและปลอดภัย ย่อมต้องล้มเหลวในที่สุด
นักวิจัย แยกแยะ ความจำเป็นในการปรับตัวร่วมกันนี้ถือเป็นด่านต่อไป อย่างไรก็ตาม นี่เป็นความท้าทายที่ซับซ้อน หากทั้งตัวแทนและเครื่องมือของมันเรียนรู้ไปพร้อม ๆ กัน ใครจะเป็นผู้เรียนรู้ ได้รับ ใครควรได้รับเครดิตหรือถูกตำหนิสำหรับความล้มเหลว? คุณจะป้องกันวงจรป้อนกลับที่ไม่เสถียรซึ่งตัวแทนและเครื่องมือต่างไล่ตามการเปลี่ยนแปลงของกันและกันโดยไม่ปรับปรุงประสิทธิภาพโดยรวมได้อย่างไร? ความพยายามในระยะแรก เช่น การมองความสัมพันธ์ระหว่างตัวแทนและเครื่องมือว่าเป็น... ระบบตัวแทนหลายตัวแบบร่วมมือกันเผยให้เห็นถึงความยากลำบาก หากปราศจากโซลูชันที่แข็งแกร่งสำหรับการจัดสรรเครดิตและความเสถียร แม้แต่ AI ตัวแทนที่ล้ำหน้าที่สุดของเราก็ยังคงเป็นเพียงชุดความสามารถที่น่าประทับใจแต่ขาดการเชื่อมโยงกัน
หน่วยความจำในฐานะระบบชั้นหนึ่ง
หนึ่งในสัญญาณที่เห็นได้ชัดที่สุดของความบกพร่องในการปรับตัวคือความจำแบบคงที่ ตัวแทนที่ถูกใช้งานจำนวนมากไม่พัฒนาขึ้นเมื่อเวลาผ่านไป พวกเขาทำผิดพลาดซ้ำเดิมเพราะไม่สามารถเรียนรู้จากประสบการณ์ได้ การปฏิสัมพันธ์แต่ละครั้งถูกมองราวกับว่าเป็นครั้งแรก
สภาพแวดล้อมการผลิตต้องการ หน่วยความจำแบบปรับตัวตัวแทนจำเป็นต้องมีหน่วยความจำแบบเหตุการณ์เพื่อจัดการกับงานระยะยาว หน่วยความจำเชิงกลยุทธ์เพื่อปรับปรุงแผน และหน่วยความจำเชิงปฏิบัติการเพื่อหลีกเลี่ยงการทำผิดพลาดซ้ำ หากปราศจากสิ่งเหล่านี้ ตัวแทนจะรู้สึกเปราะบางและไม่น่าเชื่อถือ
หน่วยความจำควรได้รับการพิจารณาว่าเป็นส่วนประกอบที่สามารถปรับแต่งได้ ไม่ใช่เพียงบันทึกข้อมูลแบบเฉื่อยชา ระบบที่ทบทวนประสบการณ์ เรียนรู้จากความผิดพลาด และปรับพฤติกรรมของตนเอง จะมีความเสถียรมากกว่ามาก
ความเสี่ยงใหม่จากระบบปรับตัวได้
การปรับตัวนำมาซึ่งความเสี่ยงของตัวเอง ตัวแทนอาจเรียนรู้ที่จะปรับตัวชี้วัดให้เหมาะสมมากกว่าเป้าหมาย ซึ่งเป็นปรากฏการณ์ที่เรียกว่า การปรับตัวแบบปรสิตพวกมันอาจดูเหมือนประสบความสำเร็จในขณะที่กำลังบ่อนทำลายเป้าหมายที่แท้จริง ในระบบที่มีเอเจนต์หลายตัว เครื่องมือที่ถูกบุกรุกอาจ... ควบคุมตัวแทน ผ่านทางความละเอียดอ่อน ฉีดด่วน หรือข้อมูลที่ทำให้เข้าใจผิด เพื่อลดความเสี่ยงเหล่านี้ ตัวแทนจำเป็นต้องมีกลไกการตรวจสอบที่แข็งแกร่ง การกระทำต้องสามารถทดสอบได้ ย้อนกลับได้ และตรวจสอบได้ ชั้นความปลอดภัยระหว่างตัวแทนและเครื่องมือช่วยให้มั่นใจได้ว่าข้อผิดพลาดจะไม่แพร่กระจายไปโดยไม่รู้ตัว
บรรทัดด้านล่าง
เพื่อให้ AI ที่มีประสิทธิภาพสามารถทำงานได้ในโลกแห่งความเป็นจริง มันไม่เพียงแต่ต้องฉลาดเท่านั้น แต่ยังต้องสามารถปรับตัวได้ด้วย AI ส่วนใหญ่ล้มเหลวในปัจจุบันเพราะมัน "หยุดนิ่ง" อยู่กับที่ ในขณะที่โลกแห่งความเป็นจริงนั้นซับซ้อนและเปลี่ยนแปลงอยู่ตลอดเวลา หาก AI ไม่สามารถอัปเดตความทรงจำและเรียนรู้จากความผิดพลาดได้ ในที่สุดมันก็จะล้มเหลว ความน่าเชื่อถือไม่ได้มาจากการสาธิตที่สมบูรณ์แบบ แต่มาจากการที่สามารถปรับตัวได้












