ผู้นำทางความคิด
ทำไม GenAI จึงหยุดชะงักโดยไม่มีการกำกับดูแลที่เข้มแข็ง

เมื่อบริษัทต่างๆ พยายามย้ายโครงการ Generative AI จากการทดลองไปสู่การผลิต – หลายธุรกิจยังคงติดอยู่ในโหมดทดลอง เนื่องจากการวิจัยล่าสุดของเราเน้นย้ำว่า 92% ขององค์กรกังวลว่า GenAI ทดลองเร่งความเร็วโดยไม่ต้องแก้ไขปัญหาพื้นฐานของข้อมูลก่อน สิ่งที่น่าสนใจยิ่งขึ้นคือ 67% ไม่สามารถขยายการผลิตได้แม้แต่ครึ่งหนึ่งของการทดลอง นี่คือช่องว่างการผลิตที่น้อยกว่าความตื่นตัวทางเทคโนโลยีและมากกว่าความพร้อมของข้อมูลที่อยู่ภายใต้ โอกาสของ GenAI ขึ้นอยู่กับความแข็งแกร่งของพื้นที่ที่ยืนอยู่ และในวันนี้สำหรับองค์กรส่วนใหญ่ พื้นนั้นไม่แน่นอน
ทำไม GenAI จึงติดอยู่ในโหมดทดลอง
แม้ว่าโซลูชัน GenAI จะมีพลังมาก แต่ มีประสิทธิภาพเท่ากับข้อมูลที่ให้อาหารพวกมัน คำพูดเก่า “ขยะเข้าขยะออก” เป็นจริงมากกว่าที่เคย ข้อมูลที่เชื่อถือได้สมบูรณ์ มีสิทธิ์ และอธิบายได้ GenAI มักจะผลิตผลลัพธ์ที่ไม่ถูกต้อง มีอคติ หรือไม่เหมาะสม
ไม幸ด้วย องค์กรได้เร่งให้ใช้กรณีการใช้งานที่ต้องใช้ความพยายามน้อย เช่น แชทบอทที่มีพลังงาน AI ที่ให้คำตอบที่ปรับให้เหมาะสมจากเอกสารภายในต่างๆ และแม้ว่าสิ่งเหล่านี้จะปรับปรุงประสบการณ์ของลูกค้า แต่ก็ไม่ต้องการการเปลี่ยนแปลงที่ลึกซึ้งเกี่ยวกับโครงสร้างพื้นฐานข้อมูลของบริษัท แต่เพื่อขยาย GenAI ในเชิงกลยุทธ์ ไม่ว่าจะเป็นในด้านการดูแลสุขภาพ บริการทางการเงิน หรือการ自动化ห่วงโซ่อุปทาน ต้องการระดับความตื่นตัวของข้อมูลที่แตกต่าง
ในความเป็นจริง 56% ของ Chief Data Officers อ้างว่าความน่าเชื่อถือของข้อมูลเป็นอุปสรรคหลักในการใช้งาน AI ปัญหาอื่นๆ ได้แก่ ข้อมูลไม่สมบูรณ์ (53%) ปัญหาเกี่ยวกับความเป็นส่วนตัว (50%) และช่องว่างการกำกับดูแล AI ที่ใหญ่กว่า (36%)
ไม่มีการกำกับดูแล ไม่มี GenAI
เพื่อนำ GenAI ไปไกลกว่าโหมดทดลอง บริษัทต่างๆ ต้องปฏิบัติต่อการกำกับดูแลข้อมูลเป็นเรื่องสำคัญทางธุรกิจ พวกเขาต้องแน่ใจว่าข้อมูลมีคุณภาพที่จะช่วยให้ AI มีประสิทธิภาพ และเพื่อให้ได้สิ่งนั้น ต้องตอบคำถามต่อไปนี้:
- ข้อมูลที่ใช้ในการฝึกอบรมโมเดลมาจากระบบที่ถูกต้องหรือไม่?
- เราได้ลบข้อมูลที่สามารถระบุตัวบุคคลและปฏิบัติตามกฎระเบียบข้อมูลและความเป็นส่วนตัวหรือไม่?
- เรามีความโปร่งใสและสามารถพิสูจน์ย้อนกลับของข้อมูลที่โมเดลใช้หรือไม่?
- เราสามารถจัดทำเอกสารกระบวนการข้อมูลและพร้อมที่จะแสดงว่าข้อมูลไม่มีอคติหรือไม่?
การกำกับดูแลข้อมูลยังต้องฝังอยู่ใน文化ขององค์กร เพื่อให้บรรลุเป้าหมายนี้ ต้องสร้างความเข้าใจ AI ทั่วทั้งทีม การดำเนินการ AI ของสหภาพยุโรปทำให้ความรับผิดชอบนี้เป็นทางการ โดยกำหนดให้ทั้งผู้ให้บริการและผู้ใช้ระบบ AI ต้องพยายามให้พนักงานมีความรู้ AI ที่เพียงพอ เพื่อให้เข้าใจว่าระบบเหล่านี้ทำงานอย่างไรและใช้งานอย่างรับผิดชอบ อย่างไรก็ตาม การนำ AI ไปใช้อย่างมีประสิทธิภาพต้องมากกว่าความรู้ทางเทคนิค ยังต้องมีพื้นฐานที่แข็งแกร่งในด้านทักษะข้อมูล ตั้งแต่การทำความเข้าใจการกำกับดูแลข้อมูลไปจนถึงการวางกรอบคำถามวิเคราะห์ การปฏิบัติต่อความเข้าใจ AI โดยแยกออกจากความเข้าใจข้อมูลจะสั้นเนื่องจากความใกล้ชิดที่เกี่ยวข้อง
ในแง่ของการกำกับดูแลข้อมูล ยังมีงานที่ต้องทำ ในบรรดาธุรกิจที่ต้องการเพิ่มการลงทุนในการจัดการข้อมูล 47% เห็นด้วยว่าการขาดทักษะข้อมูลเป็นอุปสรรคหลัก สิ่งนี้เน้นย้ำถึงความจำเป็นในการสร้างการสนับสนุนระดับสูงสุดและพัฒนาทักษะที่ถูกต้องทั่วทั้งองค์กร การไม่มีพื้นฐานเหล่านี้ แม้แต่ LLM ที่ทรงพลังที่สุดก็จะดิ้นรนในการส่งมอบ
พัฒนา AI ที่ต้องรับผิดชอบ
ในบรรยากาศด้านกฎระเบียบที่มีอยู่ในปัจจุบัน ไม่เพียงพอแล้วที่ AI จะ “ทำงาน” เท่านั้น แต่ยังต้องมีความรับผิดชอบและอธิบายได้ การดำเนินการ AI ของสหภาพยุโรป และแผนการดำเนินการ AI ที่เสนอของสหราชอาณาจักร ต้องการความโปร่งใสในกรณีการใช้งาน AI ที่มีความเสี่ยงสูง ประเทศอื่นๆ ก็ตามรอย และ 1,000+ โครงการนโยบายที่เกี่ยวข้องอยู่ในตารางใน 69 ประเทศ
การเคลื่อนไหวระดับโลกสู่ความรับผิดชอบนี้เป็นผลโดยตรงจากความต้องการที่เพิ่มขึ้นของผู้บริโภคและผู้มีส่วนได้ส่วนเสียต่อความยุติธรรมในอัลกอริทึม ตัวอย่างเช่น องค์กรต่างๆ ต้องสามารถอธิบายได้ว่าทำไมลูกค้าถึงถูกปฏิเสธไม่ให้ได้รับเงินกู้หรือคิดค่าประกันภัยที่สูงกว่า เพื่อที่จะทำเช่นนั้น พวกเขาต้องทราบว่าโมเดลตัดสินใจอย่างไร และสิ่งนั้นขึ้นอยู่กับการมีเส้นทางที่ชัดเจนและตรวจสอบได้ของข้อมูลที่ใช้ในการฝึกอบรม
หากไม่มีความสามารถในการอธิบายได้ ธุรกิจก็เสี่ยงต่อการเสียความไว้วางใจของลูกค้า以及ผลกระทบทางการเงินและกฎหมาย ในทางกลับกัน การติดตามที่มาของข้อมูลและเหตุผลของผลลัพธ์ไม่ใช่ “สิ่งที่ดี” แต่เป็นข้อกำหนดในการปฏิบัติตามกฎระเบียบ
และเมื่อ GenAI ขยายออกไปนอกเหนือจากเครื่องมือที่เรียบง่ายไปสู่ตัวแทนเต็มรูปแบบที่สามารถตัดสินใจและดำเนินการตามนั้น ความเสี่ยงในการกำกับดูแลข้อมูลที่เข้มแข็งเพิ่มขึ้น
ขั้นตอนในการสร้าง AI ที่น่าเชื่อถือ
ดังนั้น สิ่งที่ดีจึงดูเหมือนอย่างไร เพื่อขยาย GenAI อย่างมีความรับผิดชอบ องค์กรควรใช้กลยุทธ์ข้อมูลเดียวทั่วสามเสา:
- ปรับ AI ให้เหมาะกับธุรกิจ: จัดทำแค็ตตาล็อกข้อมูลของคุณรอบวัตถุประสงค์ทางธุรกิจหลัก โดย đảmนว่าข้อมูลสะท้อนถึงบริบทที่เป็นเอกลักษณ์ ความท้าทาย และโอกาสที่เฉพาะเจาะจงสำหรับธุรกิจของคุณ
- สร้างความไว้วางใจใน AI: จัดตั้งนโยบาย มาตรฐาน และกระบวนการสำหรับการปฏิบัติตามและกำกับดูแลการนำ AI ไปใช้อย่างมีจริยธรรมและรับผิดชอบ
- สร้างท่อข้อมูลที่พร้อมสำหรับ AI: รวมแหล่งข้อมูลที่หลากหลายเข้าด้วยกันเพื่อสร้างพื้นฐานข้อมูลที่มีความยืดหยุ่นสำหรับการอบรม AI ที่มีประสิทธิภาพโดยมีการเชื่อมต่อ GenAI ที่มีอยู่แล้ว
เมื่อองค์กรทำสิ่งนี้ได้ การกำกับดูแลจะเร่งการสร้างมูลค่าของ AI ตัวอย่างเช่น ในด้านบริการทางการเงิน หุ้นใช้ Gen AI เพื่อทำนายราคาหุ้นที่เหนือกว่านักวิเคราะห์ของมนุษย์ ในขณะเดียวกันก็ลดต้นทุนลงอย่างมาก ในการผลิต การเพิ่มประสิทธิภาพห่วงโซ่อุปทานที่ขับเคลื่อนด้วย AI ช่วยให้องค์กรมีปฏิกิริยาต่อการเปลี่ยนแปลงทางภูมิรัฐศาสตร์และแรงกดดันสิ่งแวดล้อมในแบบเรียลไทม์
และสิ่งเหล่านี้ไม่ใช่แค่ความคิดในอนาคต แต่เกิดขึ้นแล้ว โดยขับเคลื่อนด้วยข้อมูลที่เชื่อถือได้
ด้วยพื้นฐานข้อมูลที่แข็งแกร่ง บริษัทต่างๆ ลดการเปลี่ยนแปลงของโมเดล ขีดจำกัดของการฝึกอบรมใหม่ และเพิ่มความเร็วในการสร้างมูลค่า ซึ่งเป็นสาเหตุว่าทำไมการกำกับดูแลจึงไม่ใช่สิ่งกีดขวาง แต่เป็นตัวช่วยให้เกิดนวัตกรรม
สิ่งที่จะเกิดขึ้นต่อไป
หลังจากการทดลอง องค์กรต่างๆ กำลังขยายออกไปนอกเหนือจากแชทบอทและลงทุนในความสามารถในการเปลี่ยนแปลง ตั้งแต่การปรับแต่งการโต้ตอบกับลูกค้าไปจนถึง การเร่งการค้นคว้ายา การปรับปรุงสุขภาพจิต และการทำให้กระบวนการกำกับดูแลง่ายขึ้น GenAI เริ่มแสดงถึงศักยภาพของมันเองทั่วทั้งอุตสาหกรรม
แต่ความสำเร็จเหล่านี้ขึ้นอยู่กับข้อมูลที่เป็นพื้นฐาน GenAI เริ่มต้นด้วยการสร้างพื้นฐานข้อมูลที่แข็งแกร่งผ่านการกำกับดูแลข้อมูลที่เข้มแข็ง และในขณะที่ GenAI และ AI ที่มีเจตนา会ต่อไปยังพัฒนา แต่ก็จะไม่แทนที่การดูแลของมนุษย์ในเร็วๆ นี้ แทนที่จะเข้าสู่ระยะการสร้างมูลค่าที่มีโครงสร้าง โดยที่ AI จะกลายเป็นร่วมผู้ขับขี่ที่เชื่อถือได้ ด้วยการลงทุนอย่างเหมาะสมในคุณภาพข้อมูล การกำกับดูแล และวัฒนธรรม องค์กรมีศักยภาพที่จะเปลี่ยน GenAI จากการทดลองที่มีแนวโน้มไปสู่สิ่งที่สามารถบินได้อย่างเต็มที่












