Connect with us

การทำลายวงจร: วิธีการที่องค์กรสามารถหลีกเลี่ยง Doomprompting และส่งมอบความสำเร็จ

ผู้นำทางความคิด

การทำลายวงจร: วิธีการที่องค์กรสามารถหลีกเลี่ยง Doomprompting และส่งมอบความสำเร็จ

mm

ตั้งแต่แนวคิดที่เป็นทฤษฎีในยุค 1950 ความฉลาดทางอาร์ติฟิชियल (AI) ได้เปิดโอกาสให้ธุรกิจได้สัมผัสกับโอกาสและผลผลิตที่เพิ่มขึ้นผ่านเทคนิคต่างๆ โดยเฉพาะระบบการเรียนรู้ของเครื่อง这些เครื่องมือ/เทคโนโลยีได้ปรับปรุงการพยากรณ์และการตัดสินใจ ซึ่งเป็นรากฐานสำหรับการพัฒนาเทคนิคในอนาคต ในช่วงไม่นานมานี้ AI ที่สร้างสรรค์ (Generative AI) ได้สัญญาว่าจะเปลี่ยนแปลงทุกสิ่งที่เรารู้เกี่ยวกับการทำงาน และได้ทำให้ประสบการณ์ AI เปิดกว้างสำหรับทุกคน ผู้ใช้สามารถโต้ตอบกับโมเดล AI เช่น ChatGPT ผ่าน “การกระตุ้น” (prompting) โดยที่บุคคลหนึ่งโต้ตอบไปมากับโมเดล AI อย่างไรก็ตาม ผลประโยชน์เหล่านี้ก็มาพร้อมกับความท้าทายใหม่ๆ: Doomprompting ซึ่งเทียบเท่ากับการเลื่อนหน้าเว็บอย่างไม่มีจุดมุ่งหมาย โดยที่ผู้ใช้ถูกจับในหลุมกระต่าย (rabbit hole) โดย AI ที่พูดคุยกลับมา การกระทำของการปรับปรุงการกระตุ้น AI อย่างต่อเนื่องสำหรับทั้งโมเดลที่สร้างสรรค์และโมเดลที่กระทำการ (agentic models) ซึ่งถูกขับเคลื่อนโดยความทะเยอทะยานที่จะบรรลุผลลัพธ์ที่สมบูรณ์แบบ (และบางครั้งโดยการกระตุ้นโดยไม่มีเป้าหมายที่ชัดเจน) นำไปสู่ต้นทุนที่เพิ่มขึ้นและผลตอบแทนที่ลดลง ทำให้เกิดอุปสรรคสำคัญต่อความสำเร็จและทำลายจุดประสงค์ของการใช้เทคโนโลยี AI เอง

เมื่อธุรกิจเพิ่มงบประมาณที่เกี่ยวข้องกับ AI ผู้ตัดสินใจจะต้องเข้าใจเส้นทางสู่ผลตอบแทนที่แท้จริงจากการลงทุนและคุณค่าที่สร้างขึ้น รายงานปี 2025 ของ IEEE “The Hidden Costs of AI: How Small Inefficiencies Stack Up” แสดงให้เห็นว่าการปรับเปลี่ยนเล็กๆ น้อยๆ สามารถสะสมเป็นภาระทางเศรษฐกิจที่สำคัญได้อย่างไร เพื่อหลีกเลี่ยงการกลายเป็นส่วนหนึ่งของการดิ้นรนที่มีค่าใช้จ่ายนี้ องค์กรจะต้องปรับปรุงการฝึกอบรมพนักงานโดยใช้ LLMs เพื่อให้บรรลุผลลัพธ์สูงสุดจากการลงทุนใน AI

AI ที่สร้างสรรค์นำมาซึ่งความหวังของการปรับปรุงและประสิทธิภาพ อย่างไรก็ตาม เมื่อทีมติดอยู่ในวงจรของการปรับปรุงอย่างไม่มีที่สิ้นสุด (หรือการเดินอย่างไม่มีเป้าหมาย) ความไม่มีประสิทธิภาพจะบ่อนทำลายรากฐานนี้

การทำความสะอาด “Workslop”

หนึ่งในสาเหตุที่ทีมต้องปรับปรุงผลลัพธ์อย่างต่อเนื่องเพื่อให้ได้คำตอบที่สมบูรณ์แบบคือ “workslop” ซึ่งถูกอธิบายครั้งแรกใน Harvard Business Review Workslop หมายถึง ‘เนื้อหาที่สร้างโดย AI ที่ปลอมตัวเป็นงานที่ดี แต่ขาดสาระที่จะพัฒนางานให้ก้าวหน้า’
เนื้อหาที่ “สโลป” ของ AI นี้เป็นดอมิโนแรกในเส้นทางที่สร้างวงจร Doomprompting ในขณะที่การปรับปรุงเนื้อหาที่ไม่ดีโดยการวนซ้ำหรือแก้ไขเป็นสิ่งสำคัญ ควรเข้าใจเมื่อใดที่ควรหยุดก่อนที่จะถึงจุดของผลตอบแทนที่ลดลง องค์กรจะต้องเข้าใกล้การลงทุนเวลาในการฝึกอบรม AI ด้วยความสมดุล เมื่อหนึ่งด้าน ทีมควรตระหนักถึงคุณภาพที่ต้องการ ในทางกลับกัน พวกเขาควรทราบเมื่อมันมากเกินไป การฝึกอบรมพนักงานในการใช้ AI โมเดลที่ชาญฉลาดผ่านการกระตุ้นที่เหมาะสมและเป้าหมายที่ชัดเจนจะช่วยได้

การใช้ AI ที่กระทำการเพื่อหลีกเลี่ยง Doomprompting

ในช่วงไม่กี่ปีที่ผ่านมา ธุรกิจได้เพิ่มความสนใจและลงทุนใน AI ที่กระทำการ ซึ่งเป็นที่รู้จักในความสามารถในการปรับปรุงประสิทธิภาพการทำงาน AI ที่กระทำการสามารถรับมือกับงานที่ซับซ้อน จัดระเบียบกับเอเย่นต์หลายตัว (รวมถึง RAG และเอเย่นต์ในการกระทำ) เพื่อตัดสินใจวิธีการดำเนินการ และดำเนินการเพื่อเสร็จสิ้นงานโดยอัตโนมัติ
คุณสมบัติเหล่านี้อาจช่วยให้ AI ลดหรือหลีกเลี่ยง Doomprompting ได้ ซึ่งสามารถเอาไปสู่การไม่ต้องสอนอินเทอร์เฟซ GenAI ผ่านการกระตุ้นหลายครั้งเพื่อเสร็จสิ้นงาน ตัวอย่างหนึ่งสามารถพบได้ใน IT ที่ใช้ AI ซึ่งกำลังทันสมัยด้วยการผสมผสาน AI เข้ากับงานประจำวัน โดยทั่วไปทีมจะใช้เวลาทำการปรับเปลี่ยนระบบด้วยตนเอง แต่ในศตวรรษที่ 21 ห้องปฏิบัติการที่ใช้ AI เพื่อจัดการฟังก์ชันสำคัญอย่างการแก้ปัญหา การตอบสนองต่อเหตุการณ์ และการกระจายทรัพยากรโดยอัตโนมัติ
ตัวอย่างอื่นที่เหมาะสมคือวิธีการที่ระบบ AI ที่กระทำการสามารถจัดการกับเหตุการณ์ที่ซับซ้อนโดยอัตโนมัติ เอเย่นต์เหล่านี้ร่วมกับ ITOps มีความสามารถในการเข้าใจบริบทของปัญหา จัดระเบียบกับเอเย่นต์ที่ให้เหตุผลเพื่อตัดสินวิธีการดำเนินการ ใช้เอเย่นต์ในการกระทำเพื่อแก้ไขปัญหาสุดท้าย และใช้เอเย่นต์ที่เรียนรู้เพื่อทำความเข้าใจการแก้ปัญหาและนำไปใช้อย่างมีประสิทธิภาพมากขึ้นในเหตุการณ์อนาคต
การทำงานอัตโนมัติของ AI ที่กระทำการช่วยลดการโต้ตอบของมนุษย์และดำเนินการโดยอัตโนมัติ เพื่อตอบสนองความต้องการทางธุรกิจที่เปลี่ยนแปลงไป งานซ้ำๆ และการดำเนินงานควรส่งมอบให้กับ AI ที่มีอำนาจอิสระ การมอบหมายนี้จะกำจัดวงจรการกระตุ้นซ้ำและการปรับปรุงซ้ำที่มักจะขับเคลื่อน Doomprompting การดำเนินการที่อัตโนมัติทำให้โมเดล AI ปรับปรุงและตอบสนองต่อการเปลี่ยนแปลงต่างๆ โดยไม่ต้องมีการแทรกแซงจากมนุษย์ นำไปสู่ผลลัพธ์ที่รวดเร็วขึ้นด้วยการแทรกแซงจากมนุษย์ขั้นต่ำ
ในขณะที่ผู้เชี่ยวชาญที่ได้รับการฝึกอบรมจะยังคงมีบทบาทสำคัญในการดำเนินงานประจำวันผ่านแนวทาง “มนุษย์ในวงจร” (human-in-the-loop) เวลาของพวกเขาจะถูกใช้อย่างมีประสิทธิภาพมากขึ้นในการสแกนเพื่อยืนยันผลลัพธ์ แนวทางนี้จะลดความเสี่ยงในการนำเข้าข้อผิดพลาดหรือการปรับเปลี่ยนมากเกินไป

บทบาทของการกำกับดูแลในการป้องกัน Doomprompting

ใน การสำรวจของ McKinsey ล่าสุด 88% ของผู้ตอบแบบสำรวจรายงานว่าใช้ AI ในอย่างน้อยหนึ่งฟังก์ชันทางธุรกิจ ซึ่งเพิ่มขึ้น 10% จากปี 2024 และเพิ่มขึ้น 33% ตั้งแต่ปี 2023 สำหรับ AI ที่กระทำการ การกระโดดครั้งนี้ยิ่งใหญ่กว่า จากเพียง 33% ในปี 2023 ถึงเกือบ 80% ในปี 2025
การนำรับอย่างกว้างขวางนี้ทำให้ธุรกิจต้องหาวิธีแก้ปัญหาต่อ Doomprompting หนึ่งในเครื่องมือเหล่านี้คือโครงสร้างการกำกับดูแลที่มั่นคง ซึ่งควรได้รับการออกแบบอย่างรอบคอบเพื่อให้แน่ใจว่าโครงการ AI สอดคล้องกับวัตถุประสงค์ทางธุรกิจและไม่ตกอยู่ในวงจรการปรับปรุงอย่างไม่มีที่สิ้นสุด เมื่อทีมพัฒนาโครงสร้างการกำกับดูแลเหล่านี้ พวกเขาควรพิจารณา:

  • การสร้างแนวทาง: ข้อมูลที่ส่งเข้าและออกจากโมเดล AI มีความซับซ้อนมากขึ้นเรื่อยๆ เพื่อทำให้ง่ายขึ้น แนวทาง AI ควรสร้างโครงสร้างสำหรับทีมในการจัดการข้อมูล ตัดสินใจ และจัดการผลลัพธ์ AI อย่างรับผิดชอบ
  • การฝึกอบรมผู้ใช้: การฝึกอบรมที่เหมาะสมในการใช้การกระตุ้นสามารถช่วยให้ได้ผลผลิตที่เหมาะสม
  • การใช้โมเดลที่มีจุดประสงค์เฉพาะ: โมเดล AI ที่มีจุดประสงค์เฉพาะอุตสาหกรรมหรือวัตถุประสงค์มีแนวโน้มที่จะให้ผลลัพธ์ที่มีความหมายและรวดเร็วยิ่งขึ้น
  • การฝึกอบรมโมเดล AI: การฝึกอบรมโมเดล AI ด้วยข้อมูลที่เฉพาะเจาะจงสำหรับอุตสาหกรรม/งาน/องค์กร (เมื่อใดก็ตามที่เป็นไปได้) สามารถนำไปสู่การลด “workslop” และให้ผลลัพธ์ที่เหมาะสมมากขึ้นและรวดเร็วยิ่งขึ้น
  • การสร้างกฎ: การสร้างและนำกฎที่ชัดเจนมาใช้เป็นสิ่งจำเป็นสำหรับการชี้นำการพัฒนาและใช้งาน AI เมื่อทีมกำหนดขอบเขตการดำเนินงาน พวกเขาจะแน่ใจว่าระบบที่นำมาใช้สอดคล้องกับเป้าหมายขององค์กร มาตรฐานทางจริยธรรม และข้อกำหนดด้านกฎระเบียบ

ในขณะที่อัตราการนำรับโซลูชัน AI เพิ่มขึ้น การกำกับดูแลยังไม่เพิ่มขึ้น ตาม รายงาน PEX Industry ปี 2025 น้อยกว่าครึ่งหนึ่งมีนโยบายการกำกับดูแล AI ในการดำเนินการ ในขณะที่เพียง 25% อยู่ในระหว่างการนำไปใช้ และเกือบหนึ่งในสามไม่มีนโยบายการกำกับดูแล AI เลย โครงสร้างการกำกับดูแลเหล่านี้สามารถเป็นตัวกำหนดที่ช่วยให้ธุรกิจตั้งขอบเขตที่ชัดเจนเกี่ยวกับสิ่งที่ประกอบเป็นการทำงานที่ยอมรับได้

การหลบหนีจากวงจร Doomprompting

เพื่อหลีกเลี่ยงการตกอยู่ในวงจร Doomprompting ธุรกิจจะต้องยอมรับกลยุทธ์ AI ที่ให้ความสำคัญกับผลลัพธ์มากกว่าความสมบูรณ์แบบ การใช้การฝึกอบรมการกระตุ้น โมเดล AI ที่มีจุดประสงค์เฉพาะ และโมเดลที่ฝึกอบรมด้วยข้อมูลบริบทขององค์กรสามารถลดความจำเป็นในการกระตุ้นซ้ำอย่างกว้างขวาง ธุรกิจที่ใช้ AI ที่กระทำการ การดำเนินงาน IT โดยอัตโนมัติ และโครงสร้างการกำกับดูแลที่เข้มแข็งสามารถส่งมอบทรัพยากรสำคัญไปยังเป้าหมายทางธุรกิจโดยไม่ต้องติดอยู่กับวงจรการปรับปรุงอย่างไม่มีที่สิ้นสุด ความสำเร็จจะเกิดขึ้นเมื่อทีมเปลี่ยนความคิดจากการปรับปรุงอย่างต่อเนื่องเป็นแนวทางที่มุ่งเน้นการดำเนินการและผลลัพธ์ที่วัดได้

Arunava Bag CTO (EMEA) at Digitate เป็นผู้ให้คำปรึกษาด้าน IT และผู้นำที่มีประสบการณ์มากกว่า 25 ปีในอุตสาหกรรม รวมถึงความเชี่ยวชาญที่ลึกซึ้งในด้าน AI และซอฟต์แวร์เครื่องมือการเรียนรู้ของเครื่อง การเพิ่มประสิทธิภาพการทำงาน การสร้างแบบจำลองความจุ การเพิ่มประสิทธิภาพ IT การคำนวณประสิทธิภาพสูง การพัฒนาแอปพลิเคชัน และการบริหารฝึกปฏิบัติด้านเทคโนโลยี เขาได้เผยแพร่ผลิตภัณฑ์ใหม่ๆ นำฝึกปฏิบัติด้านเทคโนโลยี และส่งมอบโปรแกรมเทคโนโลยีที่ซับซ้อนในอุตสาหกรรมและภูมิภาคต่างๆ