Connect with us

เราไม่ได้จัดแนว AI อีกต่อไป เราจัดแนวอารยธรรม

ปัญญาประดิษฐ์

เราไม่ได้จัดแนว AI อีกต่อไป เราจัดแนวอารยธรรม

mm

ในช่วงหลายปีที่ผ่านมา คำถามหลักในด้านปัญญาประดิษฐ์ (AI) คือวิธีการจัดแนวโมเดล AI กับค่านิยมของมนุษย์ นักวิจัยพยายามที่จะกำหนดกฎความปลอดภัย หลักการทางจริยธรรม และกลไกการควบคุมที่ชี้นำการตัดสินใจของ AI การทำงานนี้ได้ทำความก้าวหน้าที่สำคัญ แต่ขณะนี้เมื่อระบบ AI เหล่านี้เติบโตขึ้นและแพร่หลายมากขึ้น จุดเน้นของการจัดแนวเริ่มเปลี่ยนไป สิ่งที่เริ่มต้นจากการท้าทายในการจัดแนวโมเดลเดียวให้เข้ากับชุดคำสั่งเดียว ได้กลายเป็นการท้าทายที่ใหญ่ขึ้นในการจัดแนวอารยธรรมทั้งหมดที่ใช้ระบบเหล่านี้ในระดับโลก AI ไม่ใช่แค่เครื่องมืออีกต่อไป แต่ก正在พัฒนาเป็นสภาพแวดล้อมที่สังคมทำงาน สื่อสาร ต่อรอง และแข่งขันกัน ดังนั้น การจัดแนวจึงไม่ใช่ปัญหาทางเทคนิคอีกต่อไป แต่กลายเป็นปัญหาอารยธรรม ในบทความนี้ ฉันจะอธิบายว่าทำไมการจัดแนวจึงไม่ใช่แค่เกี่ยวกับโมเดล และทำไมเราต้องเริ่มคิดในแง่ของอารยธรรมแทนเครื่องจักร ฉันยังจะพูดถึงว่าการเปลี่ยนแปลงนี้ส่งผลต่อความรับผิดชอบของเราและหมายถึงอะไรสำหรับการร่วมมือระดับโลก

ค่านิยมของใครที่ AI แท้จริงแล้ว?

หากคุณถาม AI เกี่ยวกับเหตุการณ์ทางประวัติศาสตร์ที่ละเอียดอ่อน คำตอบจะขึ้นอยู่กับข้อมูลที่มันศึกษา หากข้อมูลนั้นมาจากอินเทอร์เน็ตตะวันตกเป็นส่วนใหญ่ คำตอบจะถูกเอนเอียงไปทางตะวันตก จะให้ความสำคัญกับลัทธิบุคคลนิยม การพูดอย่างเสรี และอุดมการณ์ประชาธิปไตย ค่านิยมเหล่านี้ดีสำหรับหลายคน แต่ไม่ใช่ค่านิยมเดียวในโลก

ผู้ใช้ในสิงคโปร์ ผู้ใช้ในริยาด และผู้ใช้ในซานฟรานซิสโก มีนิยามที่แตกต่างกันเกี่ยวกับสิ่งที่ “มีประโยชน์” และ “เป็นอันตราย” ในบางวัฒนธรรม ความสามัคคีทางสังคมมีความสำคัญมากกว่าเสรีภาพในการพูดอย่างสมบูรณ์ ในวัฒนธรรมอื่น การเคารพลำดับชั้นเป็นสิ่งสำคัญมากกว่าการเปลี่ยนแปลง

เมื่อบริษัทในซิลิคอนวัลเลย์ใช้ “Reinforcement Learning from Human Feedback” (RLHF) พวกเขาจ้างมนุษย์ให้ให้คะแนนคำตอบของ AI แต่ใครคือมนุษย์เหล่านี้? มันเชื่ออะไร? หากพวกเขาให้โมเดลจัดแนวกับมาตรฐานอเมริกัน พวกเขากำลังสร้างสินค้าออก khẩuวัฒนธรรมอเมริกันโดยไม่ตั้งใจ พวกเขากำลังสร้างนักการทูตดิจิทัลที่บังคับใช้กฎของอารยธรรมหนึ่งๆ กับโลก

การเพิ่มขึ้นของวงจรป้อนกลับ

ความท้าทายไม่ใช่แค่ว่า AI สะท้อนความคิดเห็นของวัฒนธรรมหนึ่ง แต่เป็นว่าความคิดเห็นเหล่านั้นสามารถเปลี่ยนแปลงเราได้อย่างไร ระบบ AI สมัยใหม่มีศักยภาพในการเปลี่ยนแปลงพฤติกรรมของบุคคล องค์กร และแม้กระทั่งประเทศ พวกมันสามารถมีอิทธิพลต่อวิธีที่เราคิด ทำงาน วางใจ และแข่งขัน สิ่งนี้สร้างวงจรป้อนกลับระหว่างระบบ AI และสังคมมนุษย์; เราอบรม AI และ AI塑造วิธีที่เราคิดและกระทำ วงจรเหล่านี้กำลังแข็งแกร่งขึ้นเมื่อ AI กลายเป็นสิ่งที่แพร่หลายมากขึ้น เพื่อดูว่าวงจรป้อนกลับนี้ทำงานอย่างไร ต่อไปนี้คือตัวอย่างสองตัวอย่าง:

  • การนำ AI ไปใช้ในระดับใหญ่เปลี่ยนแปลงพฤติกรรมทางสังคม และพฤติกรรมทางสังคมเปลี่ยนแปลงรูปแบบข้อมูลที่ใช้ฝึกอบรมระบบใหม่ ตัวอย่างเช่น อัลกอริทึมการแนะนำสามารถเปลี่ยนแปลงสิ่งที่คนดู อ่าน และเชื่อ เครื่องมือเพิ่มผลผลิตเปลี่ยนแปลงวิธีที่ทีมทำงานร่วมกันและนักเรียนเรียน พฤติกรรมเหล่านี้เปลี่ยนแปลงรูปแบบข้อมูลในรูปแบบของพฤติกรรมในการดูสื่อ รูปแบบการสื่อสารในที่ทำงาน หรือรูปแบบการเขียน เมื่อข้อมูลนี้ไหลเข้าสู่ชุดข้อมูลฝึกอบรมในอนาคต โมเดลจะปรับสมมติฐานและผลลัพธ์ของตนตามนั้น พฤติกรรมของมนุษย์塑造โมเดล และโมเดลในทางกลับกัน塑造พฤติกรรมของมนุษย์
  • เครื่องมือการตัดสินใจอัตโนมัติอิทธิพลนโยบายสาธารณะ และนโยบายสาธารณะอิทธิพลการฝึกอบรมโมเดลในอนาคต ตัวอย่างเช่น รัฐบาลหลายแห่งใช้ AI เพื่อแนะนำว่าจะจัดสรรทรัพยากร เช่น ระบุพื้นที่ใดที่ต้องการการสนับสนุนด้านสุขภาพมากขึ้น หรือพื้นที่ใดที่อาจมีความเสี่ยงทางอาญา เมื่อนักการเมืองดำเนินการตามคำแนะนำเหล่านี้ ผลของการตัดสินใจเหล่านั้นจะกลายเป็นส่วนหนึ่งของชุดข้อมูลใหม่ในอนาคต เมื่อเวลาผ่านไป การตัดสินใจนโยบายที่塑造โดย AI จะกลายเป็นส่วนหนึ่งของรุ่นโมเดล AI รุ่นต่อไป

เมื่อคุณรู้จักวงจรป้อนกลับนี้แล้ว จะชัดเจนว่า AI กำลัง塑造และจัดแนวอารยธรรมอย่างช้าๆ ดังนั้น ประเทศจึงเริ่มถามว่า: พวกเขาจะปกป้องค่านิยมของตนได้อย่างไรในขณะที่รวม AI เข้ากับสังคมและสถาบันของตน?

การเกิดขึ้นของ AI อธิปไตย

ความท้าทายในการจัดแนวนี้ได้กระตุ้นให้เกิดปฏิกิริยาที่สำคัญจากทั่วโลก ประเทศต่างๆ ได้รับรู้ว่าการพึ่งพา AI ที่นำเข้ามาเป็นความเสี่ยงต่ออธิปไตยของตน พวกเข不能ให้พลเมืองของตนได้รับการศึกษา ได้รับข้อมูล และได้รับการแนะนำจากกล่องดำที่คิดเหมือนคนต่างชาติ

การรับรู้นี้ได้นำไปสู่การเกิดขึ้นของ “Sovereign AI” ฝรั่งเศสกำลัง ลงทุน อย่างหนักในการสร้างโมเดลที่พูดภาษาฝรั่งเศสและเข้าใจกฎหมายและวัฒนธรรมฝรั่งเศส อินเดียกำลัง สร้าง โมเดล AI พื้นเมืองเพื่อให้แน่ใจว่าค่านิยมทางวัฒนธรรมของตน สหรัฐอาหรับเอมิเรตส์และจีนกำลังสร้างโมเดล AI ที่จัดแนวกับวิสัยทัศน์ระดับชาติของตน

นี่คือการแข่งขันใหม่ เป็นการแข่งขันเพื่อควบคุมเรื่องราว อารยธรรมที่ไม่มี AI ของตนเองในที่สุดจะสูญเสียความทรงจำของตน หากเด็กของคุณถามคำถามกับเครื่องจักร และเครื่องจักรตอบด้วยตรรกะของวัฒนธรรมอื่น วัฒนธรรมของคุณจะเริ่มสึกหรอ การรับรู้นี้อาจนำไปสู่การก่อตั้งบล็อกดิจิทัลที่แตกต่างกัน เราอาจมี AI ตะวันตก AI จีน AI อินเดีย และอื่นๆ ระบบเหล่านี้จะทำงานด้วยข้อเท็จจริงและเข็มทิศทางศีลธรรมที่แตกต่างกัน การพัฒนานี้ทำให้ชัดเจนว่าหากเราต้องการสร้างโมเดล AI ที่จัดแนวอย่างแท้จริง เราต้องหาวิธีจัดแนวอารยธรรมก่อน

ความจำเป็นในการมี AI นักการทูต

การจัดแนวแบบดั้งเดิมสมมติว่าโมเดลสามารถจัดแนวได้ด้วยการฝึกอบรม การส่งคำสั่ง และการป้องกันที่รอบคอบ การคิดนี้มาจากความคิดทางเทคนิคของการวิจัยความปลอดภัยของ AI ในช่วงแรก แต่แม้การปรับโมเดลให้สมบูรณ์แบบก็ไม่สามารถแก้ไขปัญหาของการปรับอารยธรรมให้เข้ากัน การจัดแนวไม่สามารถคงเสถียรภาพได้เมื่อสังคมดึงไปในทิศทางตรงกันข้าม หากประเทศ บริษัท และชุมชนมีเป้าหมายที่ขัดแย้งกัน พวกเขาจะผลักดันระบบ AI ให้สะท้อนความขัดแย้งเหล่านั้น ข้อจำกัดเหล่านี้แสดงให้เห็นว่าการจัดแนวไม่ใช่แค่ปัญหาทางเทคนิค แต่เป็นปัญหาการกำกับดูแล วัฒนธรรม และการประสานงาน และปัญหาเหล่านี้ต้องใช้ไม่เพียงแต่ผู้เชี่ยวชาญหรือนักพัฒนา แต่ยังรวมถึงอารยธรรมทั้งหมดด้วย

ดังนั้น เราจะก้าวไปข้างหน้าได้อย่างไร? หากเรายอมรับว่าการจัดแนวแบบสากลเป็นไปไม่ได้ เราต้องเปลี่ยนกลยุทธ์ เราต้องหยุดค้นหาวิธีแก้ปัญหาทางเทคนิคสำหรับปัญหาทางปรัชญา เราต้องเริ่มคิดเหมือนนักการทูต เราต้องสร้างโพรโทคอลสำหรับการ “จัดแนวอารยธรรม” เราต้องค้นหาวิธีให้ AI เคารพความเชื่อและค่านิยมของสังคมโดยไม่บังคับให้สังคมรับวัฒนธรรมอื่น ในอีกคำหนึ่ง เราต้องการสหประชาชาติดิจิทัลสำหรับอัลกอริทึมของเรา

สิ่งนี้ต้องมีความโปร่งใส ปัจจุบันเราไม่ทราบค่าจริงๆ ว่าค่านิยมใดซ่อนอยู่ในระดับลึกของเครือข่ายนิวรัล เราเห็นเพียงผลลัพธ์เท่านั้น เพื่อจัดแนวอารยธรรม เราต้องชัดเจนเกี่ยวกับ “รัฐธรรมนูญ” ของแต่ละโมเดล โมเดลควรสามารถประกาศความเอนเอียงของมัน มันควรจะสามารถพูดได้ว่า “ฉันถูกฝึกอบรมบนข้อมูลนี้ โดยมีกฎความปลอดภัยเหล่านี้ และจัดลำดับความสำคัญของค่านิยมเหล่านี้” เมื่อความเอนเอียงมองเห็นได้ เราจะสามารถเชื่อใจระบบได้ ผู้ใช้ควรจะสามารถเปลี่ยนระหว่างมุมมองได้ คุณควรจะสามารถถามคำถามและดูว่าโมเดล “ตะวันตก” ตอบอย่างไร เทียบกับโมเดล “ตะวันออก” ตอบอย่างไร สิ่งนี้จะเปลี่ยน AI ให้กลายเป็นเครื่องมือสำหรับการทำความเข้าใจ มากกว่าเครื่องมือสำหรับการหลอกลวง

ข้อสรุป

เรามาใช้เวลามากเกินไปกับการกังวลเกี่ยวกับเทอร์มิเนเตอร์ ความเสี่ยงจริงไม่ใช่ว่าหุ่นยนต์จะทำลายเรา ความเสี่ยงจริงคือว่าหุ่นยนต์จะทำให้เราลืมว่าเราเป็นใคร การจัดแนวไม่ใช่โค้ดที่เราสามารถเขียนและลืมได้ มันเป็นการเจรจาต่อรองอย่างต่อเนื่องกับโมเดล AI เพื่อให้แน่ใจว่าพวกมันจัดแนวกับค่านิยมและความเชื่อของเรา มันเป็นการกระทำทางการเมือง เมื่อเราเข้าสู่ยุคอัจฉริยะครั้งถัดไป เราต้องมองไปนอกจอ เราต้องพิจารณาว่า AI ตีความประวัติศาสตร์ของเรา พรมแดนของเรา และความเชื่อของเรา เรากำลังสร้างจิตใจที่จะช่วยให้เราดำเนินโลก เราต้องแน่ใจว่าจิตใจเหล่านั้นเคารพความแตกต่างระหว่างอารยธรรม

ดร. Tehseen Zia เป็น Professor ที่ COMSATS University Islamabad โดยได้รับ PhD ใน AI จาก Vienna University of Technology, Austria มีเชี่ยวชาญด้าน Artificial Intelligence, Machine Learning, Data Science, และ Computer Vision โดยมีส่วนร่วมที่สำคัญด้วยการเผยแพร่ในวารสารวิทยาศาสตร์ที่มีชื่อเสียง ดร. Tehseen ยังได้ดำเนินโครงการอุตสาหกรรมต่างๆ ในฐานะ Principal Investigator และให้บริการเป็นที่ปรึกษาด้าน AI