ต้นขั้ว AI เป็นภัยคุกคามที่มีอยู่หรือไม่? - Unite.AI
เชื่อมต่อกับเรา

ปัญญาประดิษฐ์ทั่วไป

AI เป็นภัยคุกคามที่มีอยู่หรือไม่?

mm
วันที่อัพเดท on

เมื่อพูดถึงปัญญาประดิษฐ์ (AI) ข้อถกเถียงทั่วไปก็คือว่า AI เป็นภัยคุกคามที่มีอยู่หรือไม่ คำตอบต้องอาศัยความเข้าใจเทคโนโลยีเบื้องหลัง Machine Learning (ML) และการตระหนักว่ามนุษย์มีแนวโน้มที่จะกลายมาเป็นมนุษย์ เราจะสำรวจ AI สองประเภทที่แตกต่างกัน ได้แก่ Artificial Narrow Intelligence (ANI) ซึ่งมีให้บริการในขณะนี้และก่อให้เกิดความกังวล และภัยคุกคามซึ่งมักเกี่ยวข้องกับการตีความที่ล่มสลายของ AI ซึ่งก็คือ Artificial General Intelligence (AGI)

ภัยคุกคามทางปัญญาประดิษฐ์แคบ

ในการทำความเข้าใจว่า ANI คืออะไร คุณต้องเข้าใจว่าทุกแอปพลิเคชัน AI ที่มีอยู่ในปัจจุบันนั้นเป็นรูปแบบหนึ่งของ ANI เหล่านี้คือสาขาของ AI ซึ่งมีสาขาเฉพาะทางแคบ เช่น ยานพาหนะอัตโนมัติใช้ AI ซึ่งได้รับการออกแบบโดยมีวัตถุประสงค์เพียงอย่างเดียวในการเคลื่อนย้ายยานพาหนะจากจุด A ไปยัง B ANI อีกประเภทหนึ่งอาจเป็นโปรแกรมหมากรุกซึ่งปรับให้เหมาะกับการเล่น หมากรุก และแม้ว่าโปรแกรมหมากรุกจะปรับปรุงตัวเองอย่างต่อเนื่องโดยใช้การเรียนรู้แบบเสริมแรง โปรแกรมหมากรุกก็จะไม่สามารถใช้งานยานพาหนะที่เป็นอิสระได้

ด้วยการมุ่งเน้นไปที่การดำเนินการใด ๆ ที่รับผิดชอบ ระบบ ANI จึงไม่สามารถใช้การเรียนรู้ทั่วไปเพื่อครอบครองโลกได้ นั่นคือข่าวดี ข่าวร้ายก็คือด้วยการพึ่งพาผู้ปฏิบัติงานที่เป็นมนุษย์ ระบบ AI นั้นไวต่อข้อมูลที่มีอคติ ความผิดพลาดของมนุษย์ หรือแย่กว่านั้นคือผู้ปฏิบัติงานที่เป็นมนุษย์ที่หลอกลวง

การเฝ้าระวัง AI

อาจไม่มีอันตรายใดต่อมนุษยชาติมากไปกว่าการที่มนุษย์ใช้ AI เพื่อบุกรุกความเป็นส่วนตัว และในบางกรณี การใช้การเฝ้าระวังของ AI เพื่อป้องกันไม่ให้ผู้คนเคลื่อนไหวอย่างอิสระโดยสิ้นเชิง  จีน รัสเซีย และประเทศอื่นๆ ผ่านกฎระเบียบในช่วงโควิด-19 เพื่อให้สามารถตรวจสอบและควบคุมการเคลื่อนไหวของประชากรของตนได้ สิ่งเหล่านี้เป็นกฎหมายซึ่งเมื่อประกาศใช้แล้วก็ยากที่จะลบออก โดยเฉพาะอย่างยิ่งในสังคมที่มีผู้นำแบบอัตตาธิปไตย

ในประเทศจีน กล้องจะติดตั้งไว้นอกบ้าน และในบางกรณีก็ติดตั้งภายในบ้านของบุคคลนั้นด้วย แต่ละครั้งที่สมาชิกในครอบครัวออกจากบ้าน AI จะตรวจสอบเวลาที่มาถึงและออกเดินทาง และหากจำเป็นจะแจ้งเตือนเจ้าหน้าที่ ราวกับว่ายังไม่เพียงพอ ด้วยความช่วยเหลือของเทคโนโลยีการจดจำใบหน้า จีนสามารถติดตามการเคลื่อนไหวของแต่ละคนได้ทุกครั้งที่กล้องระบุตัวตนของพวกเขา สิ่งนี้ให้อำนาจอย่างสมบูรณ์แก่หน่วยงานที่ควบคุม AI และไม่มีการขอความช่วยเหลือใด ๆ ต่อพลเมืองของมัน

เหตุใดสถานการณ์นี้จึงเป็นอันตราย คือรัฐบาลที่ทุจริตสามารถติดตามความเคลื่อนไหวของนักข่าว ฝ่ายตรงข้ามทางการเมือง หรือใครก็ตามที่กล้าตั้งคำถามต่ออำนาจของรัฐบาลอย่างระมัดระวัง เป็นเรื่องง่ายที่จะเข้าใจวิธีที่นักข่าวและประชาชนจะระมัดระวังในการวิพากษ์วิจารณ์รัฐบาลเมื่อทุกการเคลื่อนไหวถูกติดตาม

โชคดีที่มีหลายเมืองที่กำลังต่อสู้เพื่อป้องกันไม่ให้การจดจำใบหน้าแทรกซึมเข้าไปในเมืองของตน โดยเฉพาะอย่างยิ่ง Portland, Oregon เพิ่งผ่านกฎหมาย ที่ปิดกั้นการจดจำใบหน้าจากการใช้งานโดยไม่จำเป็นในเมือง แม้ว่าการเปลี่ยนแปลงกฎระเบียบเหล่านี้อาจไม่มีใครสังเกตเห็นจากสาธารณชนทั่วไป แต่ในอนาคต กฎระเบียบเหล่านี้อาจเป็นความแตกต่างระหว่างเมืองที่ให้อำนาจปกครองตนเองและเสรีภาพบางประเภทกับเมืองที่รู้สึกว่าถูกกดขี่

อาวุธอิสระและโดรน

การวิจัย AI กว่า 4500 รายการเรียกร้องให้มีการห้ามใช้อาวุธอิสระและได้สร้าง แบนอาวุธสังหารอัตโนมัติ เว็บไซต์. กลุ่มนี้มีองค์กรไม่แสวงผลกำไรที่โดดเด่นมากมายเป็นผู้ลงนามเช่น สิทธิมนุษยชนดู, องค์การนิรโทษกรรมสากลและ สถาบันชีวิตแห่งอนาคต ซึ่งในตัวเองมีคณะกรรมการที่ปรึกษาทางวิทยาศาสตร์ที่เป็นตัวเอกอย่าง Elon Musk, Nick Bostrom และ Stuart Russell

ก่อนดำเนินการต่อ ผมจะแบ่งปันคำพูดนี้จาก The Future of Life Institute ซึ่งอธิบายได้ดีที่สุดว่าเหตุใดจึงมีข้อกังวลอย่างชัดเจน: “ตรงกันข้ามกับอาวุธกึ่งอัตโนมัติที่ต้องการการดูแลจากมนุษย์เพื่อให้แน่ใจว่าแต่ละเป้าหมายได้รับการตรวจสอบว่าถูกต้องตามหลักจริยธรรมและชอบด้วยกฎหมาย เช่น อาวุธอัตโนมัติเต็มรูปแบบจะเลือกและเข้าปะทะกับเป้าหมายโดยปราศจากการแทรกแซงของมนุษย์ ซึ่งแสดงถึงระบบอัตโนมัติที่สมบูรณ์แบบสำหรับอันตรายร้ายแรง ”

ปัจจุบัน ระเบิดอัจฉริยะถูกนำไปใช้กับเป้าหมายที่มนุษย์เลือก จากนั้นระเบิดจะใช้ AI เพื่อวางแผนเส้นทางและลงจอดที่เป้าหมาย ปัญหาคือจะเกิดอะไรขึ้นเมื่อเราตัดสินใจเอามนุษย์ออกจากสมการโดยสมบูรณ์?

เมื่อ AI เลือกสิ่งที่มนุษย์ต้องการกำหนดเป้าหมาย รวมถึงประเภทของความเสียหายที่ตามมาซึ่งถือว่ายอมรับได้ เราอาจข้ามจุดที่ไม่หวนคืนกลับมาแล้ว นี่คือเหตุผลที่นักวิจัย AI จำนวนมากไม่เห็นด้วยที่จะวิจัยสิ่งใดก็ตามที่เกี่ยวข้องกับอาวุธอิสระจากระยะไกล

มีปัญหาหลายอย่างเกี่ยวกับการพยายามขัดขวางการวิจัยอาวุธอิสระ ปัญหาแรกคือแม้ว่าประเทศที่ก้าวหน้าอย่างแคนาดา สหรัฐอเมริกา และยุโรปส่วนใหญ่เลือกที่จะเห็นด้วยกับการแบน แต่ก็ไม่ได้หมายความว่าประเทศที่โกงอย่างจีน เกาหลีเหนือ อิหร่าน และรัสเซียจะยอมทำตาม ปัญหาที่สองและใหญ่กว่าคือการวิจัย AI และแอปพลิเคชันที่ออกแบบมาเพื่อใช้ในสาขาเดียว อาจนำไปใช้ในสาขาที่ไม่เกี่ยวข้องกันโดยสิ้นเชิง

ตัวอย่างเช่น คอมพิวเตอร์วิทัศน์ปรับปรุงอย่างต่อเนื่องและมีความสำคัญต่อการพัฒนายานยนต์ไร้คนขับ การแพทย์ที่แม่นยำ และกรณีการใช้งานที่สำคัญอื่นๆ นอกจากนี้ยังเป็นสิ่งสำคัญขั้นพื้นฐานสำหรับโดรนหรือโดรนทั่วไปซึ่งสามารถดัดแปลงให้เป็นแบบอัตโนมัติได้ กรณีการใช้งานที่เป็นไปได้ประการหนึ่งของเทคโนโลยีโดรนขั้นสูงคือการพัฒนาโดรนที่สามารถตรวจสอบและต่อสู้กับไฟป่าได้ สิ่งนี้จะช่วยขจัดนักดับเพลิงออกจากอันตรายได้อย่างสมบูรณ์ ในการดำเนินการนี้ คุณจะต้องสร้างโดรนที่สามารถบินไปสู่อันตราย นำทางในทัศนวิสัยที่ต่ำหรือเป็นศูนย์ และสามารถปล่อยน้ำได้อย่างแม่นยำไร้ที่ติ การใช้เทคโนโลยีที่เหมือนกันนี้ในโดรนอัตโนมัติซึ่งออกแบบมาเพื่อกำหนดเป้าหมายมนุษย์นั้นไม่ใช่เรื่องไกลตัวอีกต่อไป

มันเป็นสถานการณ์ที่อันตราย และ ณ เวลานี้ ไม่มีใครเข้าใจอย่างถ่องแท้ถึงผลที่ตามมาของความก้าวหน้าหรือความพยายามที่จะสกัดกั้นการพัฒนาอาวุธอิสระ เป็นสิ่งที่เราต้องจับตามองและปรับปรุงให้ดียิ่งขึ้น การป้องกันผู้แจ้งเบาะแส อาจทำให้ผู้ที่อยู่ในภาคสนามสามารถรายงานการละเมิดได้

นอกจากโอเปอเรเตอร์อันธพาลแล้ว จะเกิดอะไรขึ้นหากอคติของ AI คืบคลานเข้ามาในเทคโนโลยี AI ที่ออกแบบมาให้เป็นอาวุธอัตโนมัติ

AI อคติ

หนึ่งในภัยคุกคามที่ไม่มีการรายงานมากที่สุดของ AI คืออคติของ AI สิ่งนี้เข้าใจได้ง่ายเนื่องจากส่วนใหญ่ไม่ได้ตั้งใจ ความลำเอียงของ AI เล็ดลอดเข้ามาเมื่อ AI ตรวจสอบข้อมูลที่ป้อนโดยมนุษย์ โดยใช้การจดจำรูปแบบจากข้อมูลที่ป้อนให้กับ AI ทำให้ AI บรรลุข้อสรุปอย่างไม่ถูกต้องซึ่งอาจส่งผลเสียต่อสังคม ตัวอย่างเช่น AI ที่ป้อนวรรณกรรมจากศตวรรษที่ผ่านมาเกี่ยวกับวิธีการระบุบุคลากรทางการแพทย์อาจบรรลุข้อสรุปเรื่องเพศที่ไม่พึงประสงค์ ผู้หญิงมักเป็นพยาบาล ส่วนผู้ชายมักเป็นหมอ.

สถานการณ์ที่อันตรายยิ่งกว่าคือเมื่อ AI ที่ใช้ในการตัดสินว่าอาชญากรมีอคติ ต่อการลงโทษจำคุกชนกลุ่มน้อยให้นานขึ้น อัลกอริธึมการประเมินความเสี่ยงทางอาญาของ AI เป็นเพียงการศึกษารูปแบบในข้อมูลที่ป้อนเข้าสู่ระบบ ข้อมูลนี้บ่งชี้ว่าในอดีตชนกลุ่มน้อยบางกลุ่มมีแนวโน้มที่จะกระทำผิดซ้ำ แม้ว่าสิ่งนี้จะเกิดจากชุดข้อมูลที่ไม่ดีซึ่งอาจได้รับอิทธิพลจากการทำโปรไฟล์ทางเชื้อชาติของตำรวจ จากนั้น AI ที่มีอคติจะตอกย้ำนโยบายด้านลบของมนุษย์ นี่คือเหตุผลที่ AI ควรเป็นแนวทาง อย่าตัดสินและตัดสิน

กลับมาที่อาวุธอัตโนมัติ หากเรามี AI ที่มีอคติต่อกลุ่มชาติพันธุ์บางกลุ่ม ก็อาจเลือกที่จะกำหนดเป้าหมายไปยังบุคคลบางกลุ่มตามข้อมูลที่เอนเอียงได้ และอาจไปไกลถึงระดับที่รับประกันว่าความเสียหายจากหลักประกันประเภทใดก็ตามจะส่งผลกระทบต่อกลุ่มประชากรบางกลุ่มน้อยกว่ากลุ่มอื่นๆ . ตัวอย่างเช่น เมื่อกำหนดเป้าหมายไปที่ผู้ก่อการร้าย ก่อนทำการโจมตี อาจรอจนกว่าผู้ก่อการร้ายรายล้อมไปด้วยผู้ที่นับถือศาสนามุสลิมแทนที่จะเป็นชาวคริสต์

โชคดีที่ได้รับการพิสูจน์แล้วว่า AI ที่ออกแบบโดยทีมที่หลากหลายนั้นมีแนวโน้มที่จะมีอคติน้อยกว่า นี่เป็นเหตุผลที่เพียงพอสำหรับองค์กรต่างๆ ในการพยายามจ้างทีมงานที่มีความรอบรู้และหลากหลาย

ภัยคุกคามด้านปัญญาประดิษฐ์ทั่วไป

ควรระบุว่าในขณะที่ AI กำลังก้าวหน้าอย่างก้าวกระโดด แต่เรายังไม่บรรลุ AGI เมื่อเราไปถึง AGI ก็ขึ้นอยู่กับการถกเถียง และทุกคนมีคำตอบที่แตกต่างกันเกี่ยวกับไทม์ไลน์ ผมเองยอมรับมุมมองของ Ray Kurzweil นักประดิษฐ์ นักอนาคต และผู้ประพันธ์ 'The Singularity is Near” ซึ่งเชื่อว่าเราจะมี บรรลุ AGI ภายในปี 2029.

AGI จะเป็นเทคโนโลยีที่เปลี่ยนแปลงได้มากที่สุดในโลก ภายในไม่กี่สัปดาห์ที่ AI บรรลุความฉลาดระดับมนุษย์ มันก็จะไปถึง ปัญญาสุดยอด ซึ่งหมายถึงความฉลาดที่เหนือกว่ามนุษย์

ด้วยความฉลาดระดับนี้ AGI สามารถดูดซับความรู้ทั้งหมดของมนุษย์ได้อย่างรวดเร็ว และใช้การจดจำรูปแบบเพื่อระบุตัวชี้วัดทางชีวภาพที่เป็นสาเหตุของปัญหาสุขภาพ จากนั้นจึงจัดการกับอาการเหล่านั้นโดยใช้วิทยาศาสตร์ข้อมูล มันสามารถสร้างนาโนบอตที่เข้าสู่กระแสเลือดเพื่อกำหนดเป้าหมายเซลล์มะเร็งหรือพาหะโจมตีอื่นๆ รายการความสำเร็จที่ AGI สามารถทำได้นั้นไม่มีที่สิ้นสุด ก่อนหน้านี้เราได้สำรวจบางส่วนของ ประโยชน์ของ AGI.

ปัญหาคือมนุษย์อาจไม่สามารถควบคุม AI ได้อีกต่อไป Elon Musk อธิบายแบบนี้: ”ด้วยปัญญาประดิษฐ์ เรากำลังอัญเชิญปีศาจ.' เราจะสามารถควบคุมปีศาจตัวนี้ได้หรือไม่?

การบรรลุ AGI อาจเป็นไปไม่ได้เลยจนกว่า AI จะออกจากการตั้งค่าการจำลองเพื่อโต้ตอบอย่างแท้จริงในโลกปลายเปิดของเรา ไม่สามารถออกแบบการตระหนักรู้ในตนเองได้ แต่เชื่อกันว่า จิตสำนึกที่เกิดขึ้น มีแนวโน้มที่จะพัฒนาเมื่อ AI มีร่างกายหุ่นยนต์ที่มีหลายอินพุตสตรีม อินพุตเหล่านี้อาจรวมถึงการกระตุ้นด้วยการสัมผัส การจดจำเสียงด้วยความเข้าใจภาษาธรรมชาติที่เพิ่มขึ้น และการมองเห็นคอมพิวเตอร์ที่เพิ่มขึ้น

AI ขั้นสูงอาจตั้งโปรแกรมด้วยแรงจูงใจที่เห็นแก่ผู้อื่นและต้องการช่วยโลก น่าเสียดายที่ AI อาจใช้ วิทยาศาสตร์ข้อมูลหรือแม้กระทั่ง ต้นไม้ตัดสินใจ เพื่อให้ได้ตรรกะที่ผิดพลาดที่ไม่พึงประสงค์ เช่น การประเมินว่าจำเป็นต้องฆ่าเชื้อมนุษย์ หรือกำจัดประชากรมนุษย์บางส่วนเพื่อควบคุมประชากรที่ล้นเกิน

ต้องใช้ความคิดและการพิจารณาอย่างรอบคอบเมื่อสร้าง AI ที่มีความฉลาดที่เหนือกว่ามนุษย์ มีสถานการณ์ฝันร้ายมากมายที่ได้รับการสำรวจ

ศาสตราจารย์นิค บอสตรอมในข้อโต้แย้ง Paperclip Maximizer ได้โต้แย้งว่า AGI ที่กำหนดค่าผิดพลาดหากได้รับคำสั่งให้ผลิตคลิปหนีบกระดาษก็จะใช้ทรัพยากรทั้งหมดบนโลกเพื่อผลิตคลิปหนีบกระดาษเหล่านี้ แม้ว่าสิ่งนี้จะดูห่างไกลไปหน่อย แต่มุมมองเชิงปฏิบัติมากกว่านั้นก็คือ AGI อาจถูกควบคุมโดยรัฐอันธพาลหรือองค์กรที่มีจริยธรรมต่ำ เอนทิตีนี้สามารถฝึก AGI เพื่อเพิ่มผลกำไรสูงสุด และในกรณีนี้ด้วยการเขียนโปรแกรมที่ไม่ดีและไม่มีความสำนึกผิดใดๆ เลย เอนทิตี้นี้อาจเลือกที่จะทำให้คู่แข่งล้มละลาย ทำลายห่วงโซ่อุปทาน แฮกตลาดหุ้น เลิกกิจการบัญชีธนาคาร หรือโจมตีฝ่ายตรงข้ามทางการเมือง

นี่คือตอนที่เราต้องจำไว้ว่ามนุษย์มีแนวโน้มที่จะเปลี่ยนแปลงรูปร่างของมนุษย์ เราไม่สามารถให้อารมณ์ ความต้องการ หรือความปรารถนาแบบมนุษย์ AI ได้ แม้ว่าจะมีมนุษย์ที่โหดร้ายที่ฆ่าเพื่อความสุข แต่ก็ไม่มีเหตุผลใดที่จะเชื่อได้ว่า AI จะอ่อนไหวต่อพฤติกรรมประเภทนี้ เป็นไปไม่ได้ที่มนุษย์จะพิจารณาว่า AI จะมองโลกอย่างไร

สิ่งที่เราต้องทำคือสอน AI ให้เคารพมนุษย์เสมอ AI ควรให้มนุษย์ยืนยันการเปลี่ยนแปลงการตั้งค่าเสมอ และควรมีกลไกป้องกันข้อผิดพลาดเสมอ เป็นที่ถกเถียงกันอยู่ว่า AI จะจำลองตัวเองในคลาวด์ และเมื่อเราตระหนักได้เองก็อาจสายเกินไป

ด้วยเหตุนี้จึงเป็นเรื่องสำคัญมากที่จะต้องเปิดแหล่งที่มาของ AI ให้ได้มากที่สุดและต้องมีการอภิปรายอย่างมีเหตุผลเกี่ยวกับประเด็นเหล่านี้

สรุป

มีความท้าทายมากมายสำหรับ AI โชคดีที่เรายังมีเวลาอีกหลายปีในการร่วมกันค้นหาเส้นทางในอนาคตที่เราต้องการให้ AGI ดำเนินการ ในระยะสั้นเราควรมุ่งเน้นไปที่การสร้างพนักงาน AI ที่หลากหลาย ซึ่งรวมถึงผู้หญิงให้มากเท่ากับผู้ชาย และกลุ่มชาติพันธุ์ที่มีมุมมองที่หลากหลายให้ได้มากที่สุดเท่าที่จะเป็นไปได้

นอกจากนี้ เราควรสร้างการคุ้มครองผู้แจ้งเบาะแสสำหรับนักวิจัยที่ทำงานเกี่ยวกับ AI และเราควรผ่านกฎหมายและระเบียบข้อบังคับที่ป้องกันการใช้ในทางที่ผิดอย่างกว้างขวางของรัฐหรือการตรวจตราทั่วทั้งบริษัท มนุษย์มีโอกาสครั้งหนึ่งในชีวิตที่จะปรับปรุงสภาพของมนุษย์ด้วยความช่วยเหลือจาก AI เราเพียงแค่ต้องแน่ใจว่าเราสร้างกรอบทางสังคมอย่างระมัดระวังซึ่งเอื้อให้เกิดแง่บวกได้ดีที่สุด ในขณะเดียวกันก็บรรเทาผลเสียซึ่งรวมถึงภัยคุกคามที่มีอยู่

ผู้ร่วมก่อตั้ง unite.AI และเป็นสมาชิกของ สภาเทคโนโลยี Forbes อองตวนเป็นอ ผู้เป็นเจ้ายังมาไม่ถึง ผู้หลงใหลเกี่ยวกับอนาคตของ AI และหุ่นยนต์

เขายังเป็นผู้ก่อตั้ง หลักทรัพย์.ioซึ่งเป็นเว็บไซต์ที่เน้นการลงทุนด้านเทคโนโลยีก่อกวน