Connect with us

ทำไมเอไอสำหรับองค์กรจึงล้มเหลวหลังการนำไปใช้ – และทำอย่างไรจึงจะแก้ไขได้

ผู้นำทางความคิด

ทำไมเอไอสำหรับองค์กรจึงล้มเหลวหลังการนำไปใช้ – และทำอย่างไรจึงจะแก้ไขได้

mm

คำเตือน: ปัญหาไม่ได้อยู่ที่โมเดล

ในปี 2023 นครนิวยอร์กได้เปิดตัวแชทบอท MyCity เพื่อช่วยให้ธุรกิจสามารถนำทางกฎระเบียบที่ซับซ้อนได้ง่ายขึ้น ไอเดียคือการทำให้ข้อมูลทางกฎหมายสามารถเข้าถึงได้ง่ายขึ้น

ในทางปฏิบัติ ระบบได้ผลิตคำตอบที่ไม่เพียงแต่ไม่ถูกต้อง แต่ยังทำให้เข้าใจผิดทางกฎหมายด้วย – ตั้งแต่กฎการให้คำแนะนำจนถึงการเลือกปฏิบัติในการชำระเงิน

การตรวจสอบในภายหลังพบว่า 71.4% ของคำติชมของผู้ใช้เป็นลบ แทนที่จะแก้ไขปัญหาเบื้องหลัง ระบบได้เพิ่มคำเตือนไว้ แชทบอทยังคงอยู่ใน “เบต้า” มากกว่าสองปีก่อนที่จะถูกปิดลง

ความล้มเหลวไม่ได้มาจากด้านเทคนิค ระบบล้มเหลวในการผลิตเนื่องจากไม่มีกลไกในการรับรองความถูกต้อง ไม่มีการรับผิดชอบที่ชัดเจน และไม่มีทางแก้ไขเมื่อเกิดปัญหา

นั่นคือรูปแบบที่อยู่เบื้องหลังเอไอสำหรับองค์กรในปัจจุบัน: เทคโนโลยีทำงานได้ แต่องค์กรไม่ได้รับการจัดตั้งขึ้นเพื่อดำเนินการได้อย่างน่าเชื่อถือเมื่อมันถูกนำไปใช้

จากการทดลองไปสู่การผลิต: ที่ทุกอย่างล้มเหลว

การสร้างการทดลองเป็นเรื่องที่ตรงไปตรงมา – เลือกกรณีการใช้งาน เลือกโมเดล เตรียมข้อมูล หาสปอนเซอร์ การดำเนินการระบบใน_production เป็นลีกที่แตกต่างทั้งหมด

ช่องว่างนั้นเหมือนกับความแตกต่างระหว่างการกระโดดลงในบ่อและกระโดดจากชั้นบรรยากาศ เช่นเดียวกับที่เฟลิกซ์ บัมการ์ทเนอร์ทำในปี 2012 ฟิสิกส์เบื้องต้นเหมือนกัน แต่สภาพแวดล้อมและผลที่ตามมาของความล้มเหลวแตกต่างกัน

ในการผลิต เอไอเข้าสู่กระบวนการตัดสินใจที่แท้จริง สื่อสารกับลูกค้า และสร้างผลกระทบทางกฎหมายและปฏิบัติการ นั่นคือที่ที่ช่องว่างเริ่มปรากฏ – ไม่ใช่ในโมเดล แต่ในด้านการกำกับดูแล

ยุโรปทำให้สิ่งนี้เห็นได้ชัดเจนกว่าภูมิภาคอื่น ๆ กฎระเบียบเช่น EU AI Act, GDPR และ NIS2 ไม่ชะลอการนำรับ แต่ทำให้เห็นว่าองค์กรสามารถดำเนินการระบบเอไอภายใต้ข้อจำกัดที่แท้จริงได้หรือไม่

ในปี 2025 55% ขององค์กรขนาดใหญ่ใน EU ได้ใช้เอไอแล้ว การนำรับกำลังเกิดขึ้นในระดับใหญ่ ความท้าทายคือสิ่งที่เกิดขึ้นหลังการนำไปใช้

ในจุดนั้น คำถามการดำเนินการที่พื้นฐานเริ่มปรากฏขึ้น และมักไม่มีใครสามารถตอบได้: ใครรับผิดชอบต่อเอาต์พุตและตัดสินใจอัตโนมัติของเอไอ? สิ่งที่เกิดขึ้นเมื่อระบบแสดงพฤติกรรมที่ไม่คาดคิด? และใครจะจับได้ก่อนที่ความเสียหายจะไปถึงสื่อ?

ความรับผิดชอบอยู่กับบริษัท ไม่ใช่เทคโนโลยี แชทบอทของแอร์แคเนดา ให้ข้อมูลที่ไม่ถูกต้องแก่ลูกค้าเกี่ยวกับค่าธรรมเนียมการเสียชีวิต ลูกค้าเชื่อถือและถูกปฏิเสธการคืนเงินในภายหลัง องค์กรตัดสินว่า航空公司มีความรับผิดชอบ – แชทบอทไม่ใช่หน่วยงานที่แยกออกมา

ปัญหาเดียวกัน แต่มุมมองที่แตกต่าง: ระบบ McHire ของแมคโดนัลด์ เปิดเผยข้อมูลที่ละเอียดอ่อนจากผู้สมัครเกือบ 64,000 คน สาเหตุไม่ใช่การโจมตีที่ซับซ้อน แต่การเข้าใช้ระบบด้วย “admin” และ “123456” ระบบดูเหมือนจะทันสมัย แต่ความล้มเหลวเป็นเรื่องพื้นฐาน

เมื่อคุณติดการกำกับดูแลเข้ากับระบบที่มีอยู่แล้ว มันคือเรื่องสายเกินไป การนำระบบไปใช้คือการตัดสินใจทางเทคนิค การดำเนินการระบบอย่างน่าเชื่อถือเป็นตัวเลือกขององค์กร และส่วนนั้นคือส่วนที่บริษัทส่วนใหญ่ประเมินต่ำเกินไป

ใครเป็นเจ้าของความเสี่ยงของเอไอ? ไม่มีใคร

นี่คือแก่นกลางของปัญหา และในทางกลับกัน คือส่วนที่ถูกกล่าวถนน้อยที่สุด องค์กร IT จัดการโครงสร้างพื้นฐาน กฎหมายจัดการเรื่องการปฏิบัติตามข้อกำหนด ทีมธุรกิจผลักดันกรณีการใช้งาน แต่ไม่มีใครเป็นเจ้าของความเสี่ยงของเอไอทั้งหมด

สิ่งนี้สร้างปัญหาในทันทีสองประการ “การไป” ชะลอลง – เพราะไม่มีใครต้องการที่จะรับผิดชอบ และ “การหยุด” ชะลอลงเช่นกัน – เพราะไม่มีใครรู้ว่าใครสามารถทำได้

ข้อมูลสะท้อนให้เห็น น้อยกว่า 10% ของกรณีการใช้เอไอ สามารถไปถึงการผลิต และองค์กรส่วนใหญ่ต้องดิ้นรนเพื่อสร้างผลกระทบทางธุรกิจที่วัดได้ ในขณะเดียวกันหลายองค์กรกำลังนำเอไอไปใช้ – แต่ตาม การสำรวจความต้องการการกำกับดูแล เพียง 7% มีการกำกับดูแลที่มีโครงสร้างและใช้ได้สม่ำเสมอ

ทำไมสิ่งนี้จึงเกิดขึ้นอย่างต่อเนื่อง? เพราะเฟรมเวิร์กและนโยบายองค์กรมักกำหนดสิ่งที่ควรเกิดขึ้น – ไม่ใช่ใครที่รับผิดชอบเมื่อมันสำคัญ เมื่อระบบเริ่มผลิตเอาต์พุตที่ไม่ถูกต้องในเวลากลางคืนของวันศุกร์ คำถามไม่ใช่เรื่องเชิงทฤษฎี ใครกระทำการ? และใครมีอำนาจในการตัดสินใจ?

สิ่งนี้ยังคงแย่ลงเมื่อขนาดใหญ่ขึ้น ระบบหนึ่งสามารถจัดการได้อย่างไม่เป็นทางการ แต่เมื่อคุณมีสามสิบ ระบบ ความรับผิดชอบกระจายไปทั่วทีม และไม่มีใครมีภาพรวมทั้งหมด

เครือธนาคารเครือจักรภพแห่งออสเตรเลีย ให้ตัวอย่างที่ชัดเจน ธนาคารแทนที่พนักงานบริการลูกค้า 45 คน ด้วยหุ่นยนต์เสียง AI โดยคาดว่าอุปสงค์จะลดลง แต่ไม่ได้ เมื่อผู้จัดการเข้ามาจัดการการไหลบ่า ระบบต้องจ้างพนักงานทั้ง 45 คนกลับเข้ามาใหม่ เมื่อถูกท้าทาย ไม่สามารถแสดงให้เห็นว่าระบบอัตโนมัติได้ลดภาระงานลงหรือไม่

ไม่มีใครตรวจสอบสมมติฐานก่อนการนำไปใช้ ไม่มีใครเป็นเจ้าของผลลัพธ์เมื่อสมมติฐานเหล่านั้นล้มเหลว นั่นคือสิ่งที่ว่างเปล่าด้านความรับผิดชอบในทางปฏิบัติ

การมีกฎไม่เพียงพอ คุณต้องการกลไก

องค์กรส่วนใหญ่ไม่ได้ขาดนโยบาย แต่ขาดระบบที่ทำงานเมื่อมีอะไรผิดปกติ

นโยบายกำหนดสิ่งที่ควรเกิดขึ้น กลไกกำหนดสิ่งที่เกิดขึ้นจริง – เมื่อโมเดลผลิตเอาต์พุตที่ไม่ถูกต้อง เมื่อผู้ขายเปลี่ยนบางสิ่งในพื้นหลัง หรือเมื่อระบบเริ่มแสดงพฤติกรรมที่ไม่คาดคิด

ความแตกต่างนั้นจะเห็นได้ชัดใน_production – เมื่อต้องตัดสินใจภายใต้สภาพแวดล้อมที่แท้จริง

ความล้มเหลวเหล่านี้ติดตามพลวัตที่สม่ำเสมอ ในแต่ละกรณี ช่องว่างการดำเนินการที่เหมือนกันปรากฏขึ้น – เพียงแต่ในรูปแบบที่แตกต่างกัน

ความเป็นเจ้าของมาเป็นอันดับแรก

ระบบเอไอที่นำไปใช้ทุกระบบต้องการเจ้าของที่รับผิดชอบอย่างชัดเจน – บุคคลหนึ่ง ไม่ใช่ทีมหรือแผนก โดยมีอำนาจในการอนุมัติ หยุดชั่วคราว และปิดระบบ

หากไม่มีสิ่งนี้ การนำไปใช้อย่างรวดเร็วหรือการแทรกแซงที่ปลอดภัยจะไม่สามารถทำได้ ตามที่เห็นในตัวอย่างของเครือจักรภพ การขาดความเป็นเจ้าของที่ชัดเจนนำไปสู่ความล้มเหลวในการดำเนินงานโดยตรง

ความชัดเจนของข้อมูลและกฎหมายมักจะหายไป

หลายระบบเข้าใช้งานโดยไม่มีการไหลเวียนของข้อมูลที่มีการบันทึกไว้ ฐานะทางกฎหมายที่ตรวจสอบแล้ว หรือความชัดเจนเกี่ยวกับภาระผูกพันที่ใช้เมื่อระบบอยู่ในการผลิต

การดำเนินการของหน่วยงานกำกับดูแลของอิตาลีเกี่ยวกับ DeepSeek ในปี 2025 แสดงให้เห็นอย่างชัดเจน ปัญหาไม่ใช่คุณภาพของโมเดล แต่เป็นความไม่สามารถอธิบายว่าข้อมูลส่วนบุคคลถูกจัดการอย่างไร ผลลัพธ์คือการหยุดชะงักของบริการที่ไม่คาดคิดสำหรับผู้ใช้ในยุโรป

การทดสอบมักไม่สะท้อนการใช้งานในโลกแห่งความเป็นจริง

ระบบมักถูกประเมินจากสถานการณ์ที่มันทำงานได้ดี แต่ไม่ใช่ในกรณีที่ความล้มเหลวจะมีความสำคัญที่สุด

แชทบอท MyCity เป็นตัวอย่างที่ชัดเจน กรณีฐานที่เป็นขอบเขตพื้นฐาน – เกี่ยวกับกฎหมายแรงงาน การเลือกปฏิบัติในการชำระเงิน หรือกฎการชำระเงิน – ไม่ได้รับการจับก่อนการนำไปใช้ เมื่อถูกเปิดเผยต่อผู้ใช้จริง ความล้มเหลวเหล่านั้นกลายเป็นสาธารณะทันที

การทดสอบไม่ใช่แค่เรื่องของประสิทธิภาพ – แต่เป็นการระบุจุดที่ระบบล้มเหลวก่อนที่ผู้ใช้ ผู้กำกับดูแล หรือนักข่าวจะทำ

การแทรกแซงมักจะไม่ชัดเจนหรือช้าเกินไป

แม้ว่าปัญหาเป็นที่เห็นได้ชัดเจน แต่ก็มักไม่มีการกระตุ้นหรืออำนาจที่ชัดเจนในการหยุดชะงักหรือปิดระบบ

Zillow Offers แสดงให้เห็นในระดับใหญ่ ระบบใช้อัลกอริทึมในการกำหนดราคาและซื้อขายบ้าน เมื่อตลาดเย็นลงในปี 2021 ระบบยังคงซื้อในราคาที่สูงเกินไป ไม่มีกลไกในการตรวจจับการเปลี่ยนแปลงในเวลาที่เหมาะสม และไม่มีจุดตัดสินใจที่ชัดเจนในการหยุด มัน ส่งผลให้เกิดความสูญเสียที่เกิน 880 ล้านดอลลาร์และการปิดแผนกทั้งหมด

การตรวจสอบไม่ใช่ความเป็นเจ้าของ

การตรวจสอบมักถูกย่อให้เหลือเพียงตารางควบคุม แต่นั่นไม่ใช่สิ่งที่ป้องกันความล้มเหลว

สิ่งที่สำคัญคือความรับผิดชอบที่กำหนดไว้: ใครติดตามสัญญาณอะไร? สิ่งใดกระตุ้นการเพิ่มระดับ? และใครคาดหวังให้กระทำการ?

กรณีของ Deloitte Australia แสดงให้เห็นว่าเกิดอะไรขึ้นเมื่อสิ่งนี้หายไป รายงานของรัฐบาลรวมถึงการอ้างอิงที่ไม่มีอยู่จริงและข้ออ้างทางกฎหมายที่ไม่ถูกต้อง เนื่องจากไม่มีใครรับผิดชอบโดยตรงในการตรวจสอบเอาต์พุตก่อนการส่งมอบ ผลลัพธ์คือการคืนเงินบางส่วนและความเสียหายต่อชื่อเสียง

เอไอแบบ Agentic: สิ่งที่กำลังจะมาจะยากกว่านี้

เอไอแบบสร้างสรรค์ผลิตเอาต์พุต เอไอแบบ Agentic กระทำการ นั่นเปลี่ยนความเสี่ยงไปทั้งหมด

แทนที่จะเป็นการตอบสนองเดียวที่ต้องประเมิน คำสั่งเดียวสามารถกระตุ้นชุดการตัดสินใจข้ามระบบ – การเรียก API การเข้าถึงข้อมูล การทำธุรกรรม การอัปเดต – มักไม่มีการแทรกแซงของมนุษย์ในแต่ละขั้น

เมื่อเกิดปัญหา ปัญหาไม่ใช่เรื่องของความถูกต้องแล้ว แต่เป็นเรื่องของการตรวจสอบย้อนกลับ ใครเป็นผู้กระทำการ? ข้อมูลใดถูกใช้? ใครอนุมัติการกระทำ? ในหลายกรณี คำถามเหล่านี้ยากที่จะตอบหลังจากเกิดเหตุ

สัญญาณแรกบ่งชี้ไปในทิศทางนี้ Gartner คาดการณ์ว่ามากกว่า 40% ของโครงการเอไอแบบ Agentic จะถูกยกเลิกภายในปี 2027 – ไม่ใช่เนื่องจากข้อจำกัดของโมเดล แต่เนื่องจากองค์กรต่อสู้ที่จะควบคุมต้นทุน ความเสี่ยง และผลลัพธ์ นั่นคือรูปแบบเดียวกับที่เราเห็นในเอไอแบบสร้างสรรค์หลังการนำไปใช้ เพียงแต่มีผลเสี่ยงสูงกว่า

หน่วยงานกำกับดูแลกำลังตอบสนองด้วยหลักการง่ายๆ: การทำให้ระบบอัตโนมัติไม่ลบความรับผิดชอบออกไป สำหรับองค์กร นั่นหมายถึงผลกระทบที่ชัดเจน: หากความเป็นเจ้าของและการควบคุมไม่ชัดเจนในปัจจุบัน การขยายไปยังระบบ Agentic จะไม่แก้ไขปัญหา มันจะทำให้ปัญหายิ่งใหญ่ขึ้น

ดำเนินการ – หรือสูญเสีย

เอไอไม่ใช่ข้อจำกัดอีกต่อไป โมเดลมีจำหน่าย มีความสามารถ และมีการทำให้เป็นมาตรฐานมากขึ้น สิ่งที่แตกต่างที่แท้จริงไม่ใช่ว่าองค์กรสามารถสร้างเอไอได้หรือไม่ – แต่ว่าสามารถดำเนินการได้อย่างน่าเชื่อถือเมื่อมันถูกนำไปใช้

นั่นคือที่ที่ความล้มเหลวส่วนใหญ่เกิดขึ้น – ในวิธีการดำเนินระบบ ไม่ใช่ในด้านการสร้างระบบ องค์กรที่ประสบความสำเร็จจะไม่ใช่ผู้ที่มีโมเดลที่ทันสมัยที่สุด แต่จะเป็นผู้ที่มีโครงสร้างการดำเนินการที่ชัดเจนที่สุดรอบๆ โมเดล

สิ่งนี้สามารถทดสอบได้โดยตรง ให้ระบบเอไอที่สำคัญที่สุดของคุณและตอบคำถามสามข้อ:

  • ใครสามารถปิดมันลง?
  • คุณรู้ได้อย่างไรว่ามันล้มเหลว?
  • เกิดอะไรขึ้นเมื่อมันล้มเหลว?

หากคำตอบเหล่านั้นไม่ชัดเจน ระบบไม่พร้อมสำหรับการผลิต

โมเดลอาจพร้อม แต่องค์กรไม่พร้อม

ซูซานา ดโรตารोवา เป็นผู้นำการวิเคราะห์ธุรกิจที่ Avengaการวิเคราะห์ธุรกิจที่ Avenga โดยดูแลนักวิเคราะห์ประมาณ 100 คนในโปรแกรมองค์กรใน CZ & SK เธอมุ่งเน้นไปที่โครงสร้างการดำเนินงานและการตัดสินใจที่กำหนดว่าโครงการริเริ่มขององค์กร รวมถึง AI จะทำงานในกระบวนการผลิตหรือไม่