ผู้นำทางความคิด
ทำไมบริษัทต่างๆ ควรปฏิบัติตามแนวทางที่มีพื้นฐานมาจากคุณค่าในการกำกับดูแล AI

ในเดือนกันยายน 2025 เป็นครั้งแรกที่รัฐสมาชิกทั้งหมดของสหประชาชาติรวมตัวกันเพื่อหารือเกี่ยวกับการกำกับดูแล AI ระหว่างประเทศหลายประเทศได้เข้าร่วมอีกครั้งในเดือนกุมภาพันธ์ที่ AI Impact Summit ในเดลี เหตุการณ์นี้นำไปสู่การเปิดตัวสองหน่วยงานใหม่ที่มุ่งเน้นการกำกับดูแล AI แต่สิ่งนี้เป็นเพียงความสำเร็จที่เป็นสัญลักษณ์เท่านั้น
กลไกใหม่ของสหประชาชาติได้รับการออกแบบมาเพื่อให้ได้รับการยอมรับจากทุกฝ่าย: พวกเขาหลีกเลี่ยงพื้นที่ที่มีการถกเถียงกัน เช่น การใช้ AI ในกิจการทหาร และไม่มีแหล่งเงินทุนหรืออำนาจในการบังคับใช้ที่ชัดเจน สิ่งนี้ไม่ควรทำให้ผู้สังเกตการณ์ที่มีประสบการณ์ประหลาดใจ สหประชาชาติในปัจจุบันขาดความสามารถในการเคลื่อนไหวอย่างรวดเร็วหรือรับประกันการปฏิบัติตามข้อตกลงของตนอย่างสมบูรณ์ ทำให้เป็นเวทีที่ยากต่อการสร้างการเปลี่ยนแปลงที่แท้จริง
สิ่งนี้สอดคล้องกับรูปแบบที่กำหนดไว้แล้ว นับตั้งแต่การพยายามสร้างความเห็นพ้องกันเกี่ยวกับการกำกับดูแล AI ที่กระจัดกระจายมาหลายปี ไม่มีข้อตกลงระหว่างประเทศที่สำคัญ ทำให้เกิดช่องว่างที่ประเทศและกลุ่มประเทศต่างๆ ถูกบังคับให้พัฒนากฎของตนเอง การกำกับดูแล AI ที่มีประสิทธิผลเป็นสิ่งจำเป็นหากเราต้องการให้ AI ถูกนำมาใช้กันอย่างกว้างขวาง ได้รับความไว้วางใจจากสาธารณชน และใช้ในรูปแบบที่ให้ผลประโยชน์ทางสังคมและเศรษฐกิจที่ยั่งยืน
การซ่อมแซมและซ่อมแซม
สำหรับบริษัทระดับโลกที่สร้างและดำเนินระบบ AI การขาดกลไกการกำกับดูแลที่เป็นที่ยอมรับและเห็นพ้องกันทำให้เกิดปัญหา พวกเขาต้องการใช้ระบบ AI ทั่วโลก แต่ไม่มีสองเขตอำนาจศาลที่ปฏิบัติตามชุดกฎเดียวกัน ดังนั้นพวกเขาจึงถูกบังคับให้สร้างโครงสร้างการกำกับดูแลทั่วไปสำหรับระบบของตน จากนั้นจึงสร้างใหม่จากพื้นฐานในประเทศทุกแห่งที่พวกเขาดำเนินการเพื่อให้แน่ใจว่าระบบของพวกเขาสอดคล้องกับกฎหมายและข้อบังคับในท้องถิ่น วิธีการนี้สร้างงานเพิ่มเติมจำนวนมาก ทำให้โครงการ AI มีราคาแพงและล่าช้า และทำให้ความสามารถของบริษัทระดับโลกในการบรรลุผลประโยชน์จากขนาดและแบ่งปันเครื่องมือที่มีประสิทธิผลกับผู้ใช้ทุกแห่งอ่อนลง
อย่างไรก็ตาม มีทางเลือกอื่น สำหรับบริษัทที่ต้องการทำให้แนวทางของตนเป็นระบบ กลยุทธ์ที่ดีที่สุดอาจเป็นการสร้างโครงสร้างการกำกับดูแล AI ที่คำนึงถึงหลักการทางจริยธรรมที่เป็นที่ยอมรับในภูมิภาคต่างๆ เพื่อให้แน่ใจว่าพวกเขาสามารถตอบสนองมาตรฐานที่สูงในทุกด้านในแง่ของการปกป้องสิทธิเสรีภาพ ความเป็นส่วนตัว และความปลอดภัยของบุคคล วิธีการนี้แสดงถึงวิธีที่มีประสิทธิภาพสำหรับธุรกิจ AI ในการเพิ่มความไว้วางใจของสาธารณชนในเทคโนโลยีของตน เพื่อเสริมสร้างฐานลูกค้า และเพื่อใช้ประโยชน์จาก AI ในรูปแบบที่ให้ประโยชน์ต่อสังคม
หกคุณค่าหลักสำหรับการกำกับดูแล AI
สำหรับองค์กรใดๆ ที่สนใจในการนำแนวทางที่มีพื้นฐานมาจากคุณค่าในการกำกับดูแล AI ฉันขอแนะนำให้ใช้คุณค่าหลักหกประการที่เราปฏิบัติตาม: ความรับผิดชอบ ความสามารถอธิบายได้ ความโปร่งใส ความยุติธรรม ความปลอดภัย และความสามารถในการท้าทาย
เราเลือกคุณค่าเหล่านี้เพราะพวกมันครอบคลุมทุกด้านสำคัญของวงจรชีวิตของระบบ AI และเนื่องจากพวกมันถูกเข้ารหัสไว้แล้วในมาตรฐานระหว่างประเทศและระดับชาติที่เกี่ยวข้องกับ AI เช่น ISO/IEC 42001 ขององค์การระหว่างประเทศว่าด้วยการมาตรฐาน และ Artificial Intelligence Playbook for the UK Government
เพื่อเริ่มต้นที่ด้านบน ความรับผิดชอบหมายถึงการทราบว่าใครรับผิดชอบต่ออะไรทุกขั้นตอนของวงจรชีวิต AI หากไม่มีการเป็นเจ้าของที่ชัดเจน การควบคุมที่สำคัญอาจถูกละเว้นเพราะไม่มีบุคคลหรือทีมใดที่รับผิดชอบสูงสุด องค์กรควรแต่งตั้งเจ้าของอาวุโสที่มีชื่อระบุ – เช่น Chief AI Officer ของตน – ให้กับระบบ AI และขั้นตอนสำคัญ และใช้แบบจำลองการกำกับดูแลตามความเสี่ยง โดยใช้ความเข้มงวดเดียวกันกับเครื่องมือของบุคคลที่สามและที่พัฒนาในองค์กร สิ่งนี้หมายถึงการทำความเข้าใจข้อกำหนดของซัพพลายเออร์ ข้อจำกัด และความรับผิดชอบเช่นเดียวกับที่พวกเขาทราบถึงระบบของตนเอง
องค์การเพื่อความร่วมมือและพัฒนาทางเศรษฐกิจ (OECD) ได้แสดงให้เห็นอย่างดีในคำแนะนำเกี่ยวกับการเพิ่มความรับผิดชอบใน AI ซึ่งแนะนำให้องค์กรสร้าง “กลไกเพื่อฝังกระบวนการบริหารความเสี่ยง AI ลงในโครงสร้างการกำกับดูแลขององค์กรโดยรวม ส่งเสริมวัฒนธรรมการบริหารความเสี่ยงภายในองค์กรและทั่วทั้งห่วงโซ่คุณค่าของ AI”
ต่อไปคือความสามารถอธิบายได้ องค์กรควรสามารถแสดงให้เห็นได้ว่าระบบ AI ตัดสินใจอย่างไร สิ่งนี้ต้องการกลไกในการจัดทำเอกสารและติดตามกระบวนการตัดสินใจ พร้อมด้วยบันทึกที่ชัดเจนของการออกแบบระบบ ข้อมูลการฝึกอบรม และกระบวนการตัดสินใจ เมื่อรวมกันแล้ว สิ่งนี้ช่วยให้ทีมสามารถเข้าใจวิวัฒนาการของข้อมูลจากจุดเริ่มต้นของระบบไปจนถึงการนำไปใช้
ความยุติธรรมมุ่งเน้นไปที่การรับรองว่าระบบ AI สร้างผลลัพธ์ที่เท่าเทียมกันและไม่ทำซ้ำหรือเพิ่มความลำเอียงที่มีอยู่แล้ว หากไม่มีการตรวจสอบอย่างตั้งใจ ระบบอาจก่อให้เกิดอันตรายโดยการให้ผลลัพธ์ที่เอนเอียง – ปัญหาที่เฉพาะเจาะจงในการจ้างงาน การดูแลสุขภาพ และกระบวนการยุติธรรมทางอาญา เพื่อลดความเสี่ยงนี้ องค์กรควรใช้มาตรการตรวจจับความลำเอียง ตรวจสอบผลลัพธ์เป็นประจำในกลุ่มที่เกี่ยวข้อง และออกแบบโครงสร้างการกำกับดูแลที่สามารถรองรับข้อกำหนดการไม่แบ่งแยกในท้องถิ่นได้ ในทางปฏิบัติ สิ่งนี้หมายถึงการสร้างระบบเพื่อให้ตรงตามมาตรฐานทางกฎหมายที่สูงที่สุดที่พวกเขาน่าจะเผชิญ รวมถึงภาระผูกพันภายใต้กฎหมาย เช่น Equality Act 2010 ของสหราชอาณาจักร และ Charter of Fundamental Rights ของสหภาพยุโรป
ความโปร่งใสเกี่ยวกับการนำเสนอความชัดเจนให้กับทั้งผู้ใช้และหน่วยงานกำกับดูแล คนที่ควรทราบว่า AI ถูกใช้เมื่อใด บทบาทของ AI ในกระบวนการตัดสินใจคืออะไร และข้อมูลใดเป็นพื้นฐาน จุดเริ่มต้นที่เป็นรูปธรรมคือการมาตรฐานเอกสารข้ามระบบ AI โดยได้รับการสนับสนุนจากเครื่องมือภายใน เช่น บัตรแบบจำลอง: เอกสารสั้นๆ ที่มาพร้อมกับแบบจำลองการเรียนรู้ของเครื่อง ซึ่งอธิบายบริบทที่แบบจำลองเหล่านั้นได้รับการออกแบบมาให้ใช้ การอธิบายขั้นตอนการประเมินประสิทธิภาพ และข้อมูลที่เกี่ยวข้องอื่นๆ หากไม่มีความโปร่งใส ผู้ใช้ไม่สามารถท้าทายผลลัพธ์ที่ไม่ยุติธรรม หน่วยงานกำกับดูแลไม่สามารถเข้าแทรกแซงได้อย่างมีประสิทธิภาพ และผลกระทบที่เป็นอันตรายอาจถูกปิดบัง
ความปลอดภัยเกี่ยวข้องกับการปกป้องระบบ AI จากการเข้าถึง การจัดการ หรือพฤติกรรมที่ไม่ได้ตั้งใจ หากความปลอดภัยอ่อนแอ ระบบ AI สามารถทำให้องค์กร ผู้ใช้ และข้อมูลของพวกเขาเสี่ยงต่ออันตรายทางการเงินและชื่อเสียง องค์กรควรกำหนดเกณฑ์ประสิทธิภาพและความแม่นยำ ทดสอบระบบภายใต้สภาพที่สมจริง และรวมการทดสอบแบบ red team เพื่อระบุความอ่อนแอ
สุดท้าย ความสามารถในการท้าทายให้แน่ใจว่าผู้คนมีทางที่ชัดเจนและเข้าถึงได้ในการท้าทายหรืออุทธรณ์คำตัดสินของ AI หากไม่มีสิ่งนี้ ผู้ใช้ที่ได้รับผลกระทบไม่มีทางแก้ไข และปัญหาอาจไม่ถูกเปิดเผยหรือแก้ไข องค์กรควรให้ทางเลือกในการรายงาน ณ จุดใช้งาน ระบุเจ้าของอาวุโสเพื่อจัดการข้อร้องเรียน และรับรองว่าระบบสามารถหยุดชั่วคราว ตรวจสอบ หรืออัปเดตได้ตามความจำเป็น
ประโยชน์ของโครงสร้างพื้นฐานที่มีพื้นฐานมาจากคุณค่า
มีสองเหตุผลที่มีพลังในการใช้แนวทางที่มีพื้นฐานมาจากคุณค่าในการกำกับดูแล AI ประการแรก เนื่องจากผู้สร้างและใช้ระบบ AI มีหน้าที่ทางจริยธรรมต่อผู้ที่ได้รับผลกระทบจากพวกเขา และประการที่สอง เนื่องจากสิ่งนี้เป็นวิธีที่มีประสิทธิภาพมากขึ้นในการนำผลประโยชน์ที่สัญญาไว้ของ AI มาใช้ในการปฏิบัติ
ผู้ใช้ระบบ AI ทั้งองค์กรและบุคคลวางใจผู้สร้างไว้โดยไม่แสดงออกว่าจะไม่ล่วงละเมิดข้อมูลส่วนบุคคลหรือทำให้พวกเขาเสี่ยงต่อความเสี่ยงโดยไม่จำเป็น เมื่อบริษัทต่างๆ ละเมิดความไว้วางใจนี้ จะยากมากที่จะรักษาลูกค้าเหล่านั้นไว้ ในที่สุด หากผู้คนไม่ไว้วางใจระบบ AI หรือไม่เห็นประโยชน์ที่ชัดเจนที่พวกเขาให้มา พวกเขาจะไม่ยอมรับการแนะนำของพวกเขา สิ่งนี้จะทำให้เกิดการแบ่งแยกทางสังคมและเศรษฐกิจมากขึ้น และเราจะพลาดโอกาสที่นำเสนอโดยเทคโนโลยีนี้
ในทางกลับกัน บริษัทที่ใช้โครงสร้างพื้นฐานที่มีพื้นฐานมาจากคุณค่าทุกแห่ง – รวมถึงในภูมิภาคที่มีข้อกำหนดการกำกับดูแลที่ผ่อนคลายกว่า – สามารถแสดงให้ลูกค้า นักลงทุน และหน่วยงานกำกับดูแลเห็นว่าตนเองมีมาตรฐานที่สูงกว่าความต้องการข้อบังคับขั้นพื้นฐาน สิ่งนี้สร้างความไว้วางใจ การมีส่วนร่วม และในที่สุดก็เป็นความสำเร็จทางธุรกิจ
การกำกับดูแล AI ที่เข้มแข็งเป็นเครื่องมือในการสร้างคุณค่า ไม่ใช่ภาระในการปฏิบัติตามข้อกำหนด สิ่งนี้ช่วยให้บริษัทสามารถนำผลิตภัณฑ์ใหม่เข้าสู่ตลาดได้อย่างรวดเร็ว ลดการเสี่ยง และขยายโซลูชันของตนไปสู่ตลาดหลายแห่งด้วยความมั่นใจ
รายงาน “สถานะของ AI” ของ McKinsey พบว่า “การดูแลการกำกับดูแล AI ของ CEO … เป็นองค์ประกอบที่สัมพันธ์กับผลกระทบทางด้านล่างที่รายงานด้วยตนเองที่สูงกว่าจากการใช้ AI ทั่วไปขององค์กร” ซึ่งเน้นย้ำถึงประโยชน์ทางธุรกิจของแนวทางนี้ ในแง่นี้ การสร้างโครงสร้างจริยธรรมที่เข้มแข็งเข้าไปในระบบ AI แสดงถึงความสนใจในตนเองที่มีเหตุผล
นอกเหนือจากสิ่งเหล่านี้แล้ว สิ่งนี้เป็นเพียงสิ่งที่ถูกต้องที่จะทำ เราได้สร้างนโยบาย AI ที่มีจริยธรรมระดับโลกของเราโดยอิงจากหลักการเดียวกัน: เทคโนโลยีที่ทันสมัยต้องรับใช้ผู้คนและสังคม ไม่ใช่ในทางกลับกัน สิ่งนี้สะท้อนถึงวิสัยทัศน์ที่กว้างขึ้นของ Society 5.0: โมเดลนวัตกรรมที่มีศูนย์กลางอยู่ที่มนุษย์ ซึ่งพยายามรวมความก้าวหน้าทางเศรษฐกิจเข้ากับการแก้ไขปัญหาสังคม
หากเทคโนโลยีที่เกิดขึ้นใหม่ เช่น AI จะช่วยให้สังคมมีความสุขและกลมกลืนกันมากขึ้น พวกเขาจะต้องสร้างขึ้นจากพื้นฐานทางจริยธรรมที่เข้มแข็ง สิ่งนี้เริ่มต้นด้วยการมุ่งเน้นที่ไม่เพียงแต่มาตรฐานที่องค์กรต้องปฏิบัติตาม แต่ยังรวมถึงมาตรฐานที่พวกเขาต้องการบรรลุอีกด้วย












