ผู้นำทางความคิด
ช่องว่างในการกำกับดูแล: ทำไมการกำกับดูแล AI จึงล่าช้าเสมอ

การพัฒนานวัตกรรมดำเนินไปด้วยความเร็วของเครื่องจักร ในขณะที่การกำกับดูแลดำเนินไปด้วยความเร็วของมนุษย์ เมื่อการนำ AI ไปใช้เพิ่มขึ้นอย่างรวดเร็ว การกำกับดูแลก็ล่าช้าตามไปด้วย ซึ่งเป็นเรื่องที่ค่อนข้างปกติเมื่อพูดถึงเทคโนโลยี ทั่วโลก รัฐบาลและหน่วยงานอื่นๆ กำลังพยายามกำกับดูแล AI แต่วิธีการที่กระจัดกระจายและไม่สม่ำเสมอเป็นเรื่องที่พบได้ทั่วไป
ส่วนหนึ่งของความท้าทายคือไม่มีการออกแบบเทคโนโลยีที่ไม่มีทางการเมือง มีกฎระเบียบและข้อเสนอหลายอย่าง ตั้งแต่ AI Act ของสหภาพยุโรปไปจนถึง sandbox การกำกับดูแลของสหรัฐฯ แต่ละอย่างมีปรัชญาของตนเอง ในขณะที่ การกำกับดูแล AI ตามหลังนวัตกรรมโดยธรรมชาติ ความท้าทายที่แท้จริงคือการบริหารความมั่นคงและนโยบายอย่างรับผิดชอบภายในช่องว่างนั้น
ลักษณะของช่องว่าง: นวัตกรรมก่อน การกำกับดูแลหลัง
การล่าช้าในการกำกับดูแลเป็นผลพลอยได้ที่ไม่สามารถหลีกเลี่ยงได้ของความก้าวหน้าทางเทคโนโลยี ตัวอย่างเช่น เฮนรี่ ฟอร์ด ไม่ได้พัฒนา Model T โดยมุ่งเน้นไปที่ความปลอดภัยทาง高速และกฎจราจร รูปแบบการกำกับดูแลตามมาประวัติศาสตร์ของนวัตกรรม ตัวอย่างล่าสุดรวมถึงความเป็นส่วนตัวของข้อมูล บล็อกเชน และสื่อสังคมออนไลน์ การพัฒนาอย่างรวดเร็วของ AI ก้าวหน้ากว่าการก่อตัวและบังคับใช้นโยบาย ในอีกคำหนึ่ง รถเข็นถูกวางไว้ก่อนม้าเป็นเวลานาน
ส่วนหนึ่งของความท้าทายคือนักการเมืองมักจะตอบสนองต่ออันตรายมากกว่าที่จะคาดการณ์ความเสี่ยง ซึ่งสร้างวงจรการกำกับดูแลที่ตอบสนอง การล่าช้าไม่ใช่ปัญหา แต่การขาดกลไกที่จะปรับตัวให้เข้ากับแบบจำลองภัยคุกคามที่เกิดขึ้นใหม่ และการขาดความเต็มใจที่จะประนีประนอมความได้เปรียบในการแข่งขันเพื่อความปลอดภัย เป็นสถานการณ์ “การแข่งขันลงด้านล่าง” เรากำลังบ่อนทำลายความปลอดภัยร่วมกันของเราเพื่อผลประโยชน์ในการแข่งขันที่มีศูนย์กลาง
การกำกับดูแล AI ทั่วโลกเป็นตัวอย่างของปรัชญาที่กระจัดกระจาย
แนวทางหลักในการกำกับดูแล AI ที่มีอยู่ทั่วโลกมีความแตกต่างกันอย่างมาก
ใน EU AI Act ที่แนะนำเมื่อปีที่แล้วมีหลักการและขึ้นอยู่กับความเสี่ยง การใช้ AI จะถูกประเมินตามระดับความเสี่ยง โดยมีบางส่วนที่ถือว่าไม่สามารถยอมรับได้และดังนั้นจึงถูกห้าม สหรัฐฯ โดยทางกลับกัน ได้ใช้ แบบจำลอง sandbox การกำกับดูแล ที่เน้นความยืดหยุ่นในการนวัตกรรม บางคนอาจอธิบายว่าเป็นการยกเว้นสำหรับการนวัตกรรม ในขณะที่นักวิจารณ์อาจเรียกว่าเช็คเปล่า
มี กระบวนการฮิโรชิมะ ซึ่งมีเจตนาในการประสานงานระดับโลก แต่มีการดำเนินการที่จำกัด ชาติ G7 แต่ละประเทศยังคงมุ่งเน้นไปที่การครอบงำ AI ในประเทศ
ในสหรัฐฯ ปัญหาได้รับการปล่อยให้อยู่กับรัฐ ซึ่งโดยพื้นฐานแล้วจะทำให้การกำกับดูแลไม่มีประสิทธิภาพ รัฐบาลกลางมักจะทำเช่นนี้เนื่องจากไม่มีประสิทธิภาพ รัฐต่างๆ กำลังสร้าง sandbox ใหม่เพื่อดึงดูดบริษัทเทคโนโลยีและลงทุน แต่น่าจะไม่มีการกำกับดูแลที่มีประสิทธิภาพที่ระดับรัฐ เพียงแต่มีข้อยกเว้นที่ได้รับอนุญาต
สหราชอาณาจักรกำลังต่อสู้กับการตั้งฐานะความเป็นอิสระหลังการออกจากสหภาพยุโรปผ่านการลดกฎระเบียบและโครงการ “Leveling Up” ของรัฐบาล การแนะนำ sandbox การกำกับดูแลจึงไม่น่าแปลกใจ รัฐบาลสหราชอาณาจักรต้องการให้สหราชอาณาจักรเป็นมหาอำนาจ AI ที่โดดเด่นทั้งในและนอกประเทศเพื่อประโยชน์ทางการเมืองและเสถียรภาพ
สหภาพยุโรปมุ่งเน้นไปที่ความปลอดภัยของผู้บริโภค แต่ยังรวมถึงความแข็งแกร่งของตลาดร่วมกันด้วย ซึ่งสมเหตุสมผลเมื่อพิจารณาจากประวัติศาสตร์ของการกำกับดูแลที่กระจัดกระจาย การปฏิบัติตามกฎระเบียบร่วมกัน มาตรฐาน และการค้าข้ามพรมแดนเป็นกุญแจสำคัญในการทำให้สหภาพยุโรปเป็นเช่นที่เป็นอยู่ พวกเขายังคงต้องการ sandbox การกำกับดูแล แต่ละประเทศสมาชิกจะต้องมี sandbox ที่ใช้งานได้ภายในวันที่เดียวกัน
นี่เป็นเพียงบางส่วนของกฎระเบียบที่มีชื่อเสียงที่สุด จุดสำคัญคือมีกรอบการทำงานที่ไม่สอดคล้องกันที่ขาดนิยามร่วมกัน กลไกบังคับใช้ และการทำงานร่วมกันข้ามพรมแดน ซึ่งทำให้เกิดช่องโหว่สำหรับผู้โจมตี
ลักษณะทางการเมืองของโพรโทคอล
การกำกับดูแล AI ไม่สามารถเป็นกลางได้ การออกแบบที่เลือก การป้องกัน และกฎระเบียบทั้งหมดสะท้อนถึงความสนใจของรัฐบาลหรือองค์กรที่ซ่อนอยู่ การกำกับดูแล AI ได้กลายเป็นเครื่องมือทางภูมิรัฐศาสตร์ ประเทศต่างๆ ใช้มันเพื่อความได้เปรียบทางเศรษฐกิจหรือยุทธศาสตร์ การควบคุมการส่งออกชิปเป็นตัวอย่างที่ใช้ในการกำกับดูแล AI โดยอ้อม
การกำกับดูแลที่ได้รับการแนะนำอย่างมีประสิทธิผลจนถึงตอนนี้คือการขัดขวางตลาดโดยเจตนา การแข่งขันระดับโลกเพื่อความเป็นเลิศด้าน AI ทำให้การกำกับดูแลเป็นกลไกในการแข่งขันมากกว่าความปลอดภัยร่วมกัน
ความมั่นคงไม่มีพรมแดน แต่การกำกับดูแลมีพรมแดน
ปัญหาใหญ่ที่นี่คือภัยคุกคามที่ใช้ AI สามารถข้ามพรมแดนได้ ในขณะที่การกำกับดูแลยังคงอยู่ภายในพรมแดนของประเทศ การคุกคามที่กำลังพัฒนาอย่างรวดเร็วในปัจจุบันรวมถึงการโจมตีระบบ AI และการโจมตีที่ใช้ระบบ AI การคุกคามเหล่านี้ข้ามพรมแดน แต่การกำกับดูแลยังคงถูกแยกออกเป็นส่วนต่างๆ ความมั่นคงถูกกักขังในมุมหนึ่ง ในขณะที่การคุกคามสามารถข้ามอินเทอร์เน็ตได้ทั้งหมด
เรากำลังเริ่มเห็นการละเมิดเครื่องมือ AI ที่ถูกต้องโดยผู้กระทำผิดระดับโลกที่ใช้ประโยชน์จากกลไกความปลอดภัยที่อ่อนแอ ตัวอย่างเช่น กิจกรรมที่เป็นอันตรายได้ถูกพบในการใช้เครื่องมือสร้างเว็บไซต์ AI ที่คล้ายกับเครื่องมือโคลนนิ่งเว็บไซต์ ซึ่งสามารถถูกใช้เพื่อสร้างโครงสร้างพิชิงได้อย่างง่ายดาย เครื่องมือเหล่านี้ถูกใช้เพื่อปลอมแปลงหน้าเข้าระบบสำหรับบริการสื่อสังคมออนไลน์ที่ได้รับความนิยม รวมถึงหน่วยงานตำรวจแห่งชาติ
จนกว่ากรอบการกำกับดูแลจะสะท้อนถึงโครงสร้างที่ไม่มีพรมแดนของ AI ผู้ป้องกันจะยังคงถูกจำกัดโดยกฎหมายที่กระจัดกระจาย
จากการกำกับดูแลแบบตอบสนองไปสู่การป้องกันที่มีประสิทธิภาพ
การล่าช้าในการกำกับดูแลเป็นเรื่องที่หลีกเลี่ยงไม่ได้ แต่การหยุดนิ่งไม่ใช่ เราต้องการการกำกับดูแลที่สามารถปรับตัวและคาดการณ์ได้ โดยมีกรอบการทำงานที่พัฒนาร่วมกับเทคโนโลยี เป็นเรื่องของการเปลี่ยนจากการกำกับดูแลแบบตอบสนองไปสู่การป้องกันที่มีประสิทธิภาพ ในอุดมคติแล้ว สิ่งนี้จะดูเหมือน:
- การพัฒนามาตรฐานสากลสำหรับการจำแนกความเสี่ยงของ AI
- การมีส่วนร่วมที่กว้างขึ้นในการตั้งมาตรฐานนอกเหนือจากรัฐบาลและองค์กรหลัก การกำกับดูแลอินเทอร์เน็ตได้พยายาม (ด้วยความสำเร็จที่ผสมผสาน) ที่จะใช้แบบจำลองผู้มีส่วนได้ส่วนเสียหลายฝ่ายมากกว่าแบบจำลองหลายฝ่าย แม้ว่าจะไม่สมบูรณ์แบบ แต่ก็มีผลกระทบอย่างมากต่อการทำให้อินเทอร์เน็ตเป็นเครื่องมือสำหรับทุกคน และลดการเซ็นเซอร์และการปิดระบบการเมือง
- การสนับสนุนความหลากหลายของความคิดในการกำกับดูแล
- กลไกสำหรับการรายงานเหตุการณ์และความโปร่งใส การขาดกฎระเบียบมักจะหมายถึงการขาดข้อกำหนดในการรายงานด้วย ไม่น่าจะมีข้อกำหนดในการแจ้งให้สาธารณชนทราบเกี่ยวกับการเสียหายจากข้อผิดพลาดหรือการเลือกออกแบบภายใน sandbox การกำกับดูแลในอนาคตอันใกล้
แม้ว่าช่องว่างในการกำกับดูแลจะไม่เคยหายไป แต่กรอบการทำงานที่ร่วมมือกัน โปร่งใส และครอบคลุมสามารถป้องกันไม่ให้ช่องว่างนี้กลายเป็นจุดอ่อนที่ถาวรในความมั่นคงระดับโลก












