AGI
นักวิจัยระบุว่ามนุษย์ไม่สามารถควบคุม AI ที่มีความฉลาดเหนือมนุษย์ได้

ใครก็ตามที่รู้จักกับปัญญาประดิษฐ์ (AI) น่าจะได้ยินเรื่องราวบางอย่างเกี่ยวกับ AI ที่จะหลุดพ้นจากการควบคุมของมนุษย์ในอนาคต นี่ไม่ใช่แค่เรื่องราวจากภาพยนตร์ Sci-Fi แต่เป็นความเป็นไปได้ที่มีความเป็นจริงสูงซึ่งทำให้ผู้เชี่ยวชาญในอุตสาหกรรมหลายคนกังวล ผู้เชี่ยวชาญเหล่านี้ รวมถึงนักวิทยาศาสตร์หลายคน แสดงความคิดเห็นว่าเราควรเริ่มเตรียมพร้อมสำหรับความเป็นไปได้นี้และหลีกเลี่ยงมันโดยวิธีการที่เป็นไปได้
ทีมนักวิจัยระหว่างประเทศได้นำความคิดนี้มาและสนับสนุนด้วยการคำนวณเชิงทฤษฎี ทีมนักวิจัยซึ่งรวมถึงนักวิทยาศาสตรจาก Center for Humans and Machines ที่ Max Planck Institute for Human Development ใช้การคำนวณเหล่านั้นเพื่อแสดงให้เห็นว่าไม่สามารถควบคุม AI ที่มีความฉลาดเหนือมนุษย์ได้
การวิจัยนี้ตีพิมพ์เมื่อเร็วๆ นี้ใน Journal of Artificial Intelligence Research.
ระบบ AI ที่มีความฉลาดเหนือมนุษย์
ความกลัวเกี่ยวกับระบบ AI ที่มีความฉลาดเหนือมนุษย์มีสาเหตุมาจากการที่ระบบดังกล่าวจะมีความสามารถเหนือกว่ามนุษย์ มันจะสามารถเรียนรู้ได้ด้วยตนเองและเข้าถึงข้อมูลที่มีอยู่ทั้งหมดและประมวลผลได้อย่างรวดเร็ว
เหตุการณ์ดังกล่าวอาจนำไปสู่การครอบงำของ AI ที่มีความฉลาดเหนือมนุษย์ที่จะเข้าควบคุมเครื่องจักรทั้งหมดออนไลน์ และในขณะที่มันจะสามารถและจะทำสิ่งต่างๆ เช่น การรักษาโรคและแก้ปัญหาอื่นๆ ที่มนุษยชาติเผชิญ แต่ความเสี่ยงในการสูญเสียการควบคุมก็มีสูงเช่นกัน
Manuel Cebrian เป็นผู้ร่วมเขียนการศึกษาและผู้นำของ Digital Mobilization Group ที่ Center for Humans and Machines, Max Planck Institute for Human Development
“เครื่องจักรที่มีความฉลาดเหนือมนุษย์ที่ควบคุมโลกดูเหมือนเป็นเรื่องราวจากนิยายวิทยาศาสตร์ แต่มีเครื่องจักรที่ทำงานบางอย่างได้ด้วยตนเองโดยไม่ต้องมีผู้เขียนโปรแกรมเข้าใจว่ามันเรียนรู้ได้อย่างไร คำถามที่เกิดขึ้นคือว่ามันจะกลายเป็นเรื่องที่ควบคุมไม่ได้และเป็นอันตรายต่อมนุษยชาติหรือไม่” Cebrian กล่าว
การควบคุมระบบ
มีมุมมองที่สำคัญสองประการเกี่ยวกับการควบคุมระบบดังกล่าว ประการแรก มนุษย์สามารถจำกัดความสามารถของ AI ที่มีความฉลาดเหนือมนุษย์ได้โดยการจำกัดการเข้าถึงแหล่งข้อมูลบางอย่าง เช่น อินเทอร์เน็ตทั้งหมด ระบบอาจทำงานได้โดยไม่ต้องสัมผัสกับโลกภายนอก อย่างไรก็ตาม ปัญหาก็คือว่ามันจะจำกัดศักยภาพของ AI อย่างมาก
ระบบจะถูกควบคุมโดยการอนุญาตให้ระบบติดตามผลลัพธ์ที่จะเป็นประโยชน์ต่อมนุษยชาติเท่านั้น และสามารถทำได้โดยการเขียนหลักการทางจริยธรรมเข้าไปในระบบ
การศึกษานี้เกี่ยวข้องกับการพัฒนาแอลกอริทึมการบรรจุภัณฑ์เชิงทฤษฎีที่ป้องกันไม่ให้ AI ที่มีความฉลาดเหนือมนุษย์ทำอันตรายต่อมนุษยชาติภายใต้สถานการณ์ใดๆ ซึ่งสามารถทำได้โดยการสร้างการจำลองพฤติกรรมของ AI และตรวจจับการกระทำที่อาจเป็นอันตรายได้ แม้ว่าทฤษฎีนี้จะมีแนวโน้มที่ดี แต่การวิเคราะห์ปัจจุบันแสดงให้เห็นว่าไม่สามารถพัฒนาแอลกอริทึมดังกล่าวได้
Iyad Rahwan เป็นผู้อำนวยการ Center for Humans and Machines
“หากคุณแบ่งปัญหาออกเป็นกฎพื้นฐานจากวิทยาการคอมพิวเตอร์เชิงทฤษฎี จะพบว่าแอลกอริทึมที่จะสั่งให้ AI ไม่ทำลายโลกอาจหยุดการทำงานของมันเองโดยไม่ตั้งใจ หากเกิดเหตุการณ์นี้ คุณจะไม่ทราบว่าแอลกอริทึมการบรรจุภัณฑ์ยังคงวิเคราะห์ภัยคุกคามอยู่หรือไม่ หรือว่ามันหยุดเพื่อควบคุม AI ที่เป็นอันตรายแล้ว ซึ่งทำให้แอลกอริทึมการบรรจุภัณฑ์ไม่สามารถใช้งานได้” Rahwan กล่าว
ปัญหาอีกประการหนึ่งคือผู้เชี่ยวชาญอาจไม่ทราบว่าเมื่อใดที่เครื่องจักรที่มีความฉลาดเหนือมนุษย์จะถึงจุดนั้น ส่วนใหญ่เนื่องจากมันจะมีความฉลาดมากกว่ามนุษย์












