ผู้นำทางความคิด
AI และการต่อสู้กับ Technophobia
เมื่อพูดถึง Generative AI และโมเดลภาษาขนาดใหญ่ เช่น ChatGPT ความกระตือรือร้นของ AI ผสมกับความหวาดกลัวเทคโนโลยี นี่เป็นเรื่องปกติสำหรับคนทั่วไป พวกเขาชอบสิ่งใหม่ๆ ที่น่าตื่นเต้น แต่พวกเขากลัวสิ่งที่ไม่รู้ สิ่งใหม่คือนักวิทยาศาสตร์ที่มีชื่อเสียงหลายคนกลายเป็นพวกขี้ระแวงเทคโนโลยี ถ้าไม่ใช่พวกขี้กลัวเทคโนโลยี กรณีของนักวิทยาศาสตร์และนักอุตสาหกรรมที่ขอให้แบนการวิจัย AI เป็นเวลา XNUMX เดือน หรือความกังขาของนักวิทยาศาสตร์ AI ระดับแนวหน้า ศ. เอ. ฮินตัน เป็นตัวอย่างดังกล่าว สิ่งเทียบเท่าทางประวัติศาสตร์ที่เกี่ยวข้องเพียงอย่างเดียวที่ฉันจำได้คือคำวิจารณ์เกี่ยวกับระเบิดปรมาณูและนิวเคลียร์โดยส่วนหนึ่งของชุมชนวิทยาศาสตร์ในช่วงสงครามเย็น โชคดีที่มนุษยชาติจัดการกับข้อกังวลเหล่านี้ได้ด้วยวิธีที่ค่อนข้างน่าพอใจ
แน่นอน ทุกคนมีสิทธิ์ที่จะตั้งคำถามเกี่ยวกับสถานะปัจจุบันของกิจการ AI:
- ไม่มีใครรู้ว่าเหตุใดโมเดลภาษาขนาดใหญ่จึงทำงานได้ดีและมีขีดจำกัด
- อันตรายหลายอย่างที่ผู้ไม่ประสงค์ดีสร้าง 'AI Bombs' แฝงตัวอยู่ โดยเฉพาะอย่างยิ่งหากรัฐยังคงยืนดูเฉยๆ ในแง่ของกฎระเบียบ
สิ่งเหล่านี้เป็นข้อกังวลที่ถูกต้องตามกฎหมายที่กระตุ้นให้เกิดความกลัวในสิ่งที่ไม่รู้ แม้กระทั่งกับนักวิทยาศาสตร์ที่มีชื่อเสียง ท้ายที่สุดแล้วพวกเขาก็เป็นมนุษย์
อย่างไรก็ตาม การวิจัย AI สามารถหยุดชั่วคราวได้หรือไม่? ในมุมมองของฉัน ไม่ เพราะ AI คือการตอบสนองของมนุษยชาติต่อสังคมโลกและโลกทางกายภาพที่มีความซับซ้อนเพิ่มขึ้นเรื่อย ๆ เนื่องจากกระบวนการเพิ่มความซับซ้อนทางกายภาพและทางสังคมนั้นลึกซึ้งมากและดูเหมือนจะไม่หยุดยั้ง AI และการเปลี่ยนแปลงรูปร่างของพลเมืองจึงเป็นความหวังเดียวของเราที่จะมีการเปลี่ยนแปลงอย่างราบรื่นจากสังคมข้อมูลในปัจจุบันไปสู่สังคมแห่งความรู้ มิฉะนั้น เราอาจต้องเผชิญกับหายนะทางสังคม
วิธีแก้ไขคือการทำความเข้าใจความก้าวหน้าของ AI ให้ลึกซึ้งยิ่งขึ้น เร่งการพัฒนา ควบคุมการใช้งานเพื่อเพิ่มผลกระทบเชิงบวกให้สูงสุด ในขณะเดียวกันก็ลดผลกระทบด้านลบที่เห็นได้ชัดและอื่นๆ ที่ซ่อนอยู่ให้น้อยที่สุด การวิจัย AI สามารถและควรจะแตกต่าง: เปิดกว้างมากขึ้น เป็นประชาธิปไตย มีวิทยาศาสตร์และมีจริยธรรม นี่คือรายการจุดที่เสนอเพื่อสิ้นสุดนี้:
- คำพูดแรกเกี่ยวกับประเด็นการวิจัย AI ที่สำคัญซึ่งมีผลกระทบทางสังคมในวงกว้างควรมอบให้กับรัฐสภาและรัฐบาลที่มาจากการเลือกตั้ง แทนที่จะมอบให้กับบริษัทหรือนักวิทยาศาสตร์แต่ละคน
- ควรพยายามทุกวิถีทางเพื่ออำนวยความสะดวกในการสำรวจด้านบวกของ AI ในความก้าวหน้าทางสังคมและการเงิน และลดด้านลบให้เหลือน้อยที่สุด
- ผลกระทบเชิงบวกของระบบ AI สามารถมีมากกว่าด้านลบได้อย่างมาก หากมีการใช้มาตรการกำกับดูแลที่เหมาะสม โรคกลัวเทคโนโลยีนั้นไม่สมเหตุสมผลและไม่ใช่วิธีแก้ปัญหา
- ในมุมมองของฉัน ภัยคุกคามที่ใหญ่ที่สุดในปัจจุบันมาจากข้อเท็จจริงที่ว่าระบบ AI ดังกล่าวสามารถหลอกลวงผู้คนทั่วไปจำนวนมากจากระยะไกลที่มีการศึกษาน้อย (หรือปานกลาง) และ/หรือความสามารถในการสืบสวนน้อย สิ่งนี้อาจเป็นอันตรายอย่างยิ่งต่อประชาธิปไตยและความก้าวหน้าทางเศรษฐกิจและสังคมทุกรูปแบบ
- ในอนาคตอันใกล้ เราควรตอบโต้ภัยคุกคามขนาดใหญ่ที่มาจาก LLM และ/หรือ CAN ใช้ในกิจกรรมที่ผิดกฎหมาย (การโกงข้อสอบในมหาวิทยาลัยเป็นการใช้ที่ไม่เป็นอันตรายในพื้นที่ของความเป็นไปได้ทางอาญาที่เกี่ยวข้อง)
- ผลกระทบต่อแรงงานและตลาดจะเป็นไปในเชิงบวกอย่างมากในระยะกลาง-ยาว
- จากมุมมองข้างต้น ระบบ AI ควร: a) กฎหมายระหว่างประเทศกำหนดให้ต้องลงทะเบียนใน 'การลงทะเบียนระบบ AI' และ b) แจ้งให้ผู้ใช้ทราบว่าพวกเขาสนทนาหรือใช้ผลลัพธ์ของระบบ AI
- เนื่องจากระบบ AI มีผลกระทบทางสังคมอย่างมาก และมุ่งสู่ประโยชน์สูงสุดและความก้าวหน้าทางเศรษฐกิจและสังคม เทคโนโลยีระบบ AI ที่สำคัญขั้นสูงควรเปิดกว้าง
- ข้อมูลที่เกี่ยวข้องกับ AI ควรได้รับการทำให้เป็นประชาธิปไตย (อย่างน้อยบางส่วน) อีกครั้งเพื่อให้เกิดประโยชน์สูงสุดและความก้าวหน้าทางเศรษฐกิจและสังคม
- ต้องมีการคาดการณ์แผนการจ่ายผลตอบแทนทางการเงินที่แข็งแกร่งอย่างเหมาะสมสำหรับแชมป์เปี้ยนเทคโนโลยี AI เพื่อชดเชยการสูญเสียผลกำไรใด ๆ เนื่องจากความเปิดกว้างที่กล่าวไว้ก่อนหน้านี้ และเพื่อให้แน่ใจว่าการลงทุนที่แข็งแกร่งในอนาคตในการวิจัยและพัฒนา AI (เช่น ผ่านการจดสิทธิบัตรเทคโนโลยี แผนการออกใบอนุญาตบังคับ)
- ความสมดุลของการวิจัย AI ระหว่าง Academia และอุตสาหกรรมควรได้รับการพิจารณาใหม่เพื่อเพิ่มผลงานวิจัยให้สูงสุด ในขณะที่ยังคงรักษาความสามารถในการแข่งขันและให้รางวัลสำหรับความเสี่ยงด้าน R&D ที่ดำเนินการ
- ควรทบทวนแนวปฏิบัติด้านการศึกษาในทุกระดับการศึกษาเพื่อให้เกิดประโยชน์สูงสุดจากเทคโนโลยี AI ในขณะเดียวกันก็สร้างพลเมืองและนักวิทยาศาสตร์ (AI) ที่สร้างสรรค์และปรับตัวได้
- ควรสร้างกลไกการกำกับดูแล/การกำกับดูแล/เงินทุนที่เหมาะสมเพื่อให้มั่นใจว่าเป็นไปตามข้างต้น
ประเด็นดังกล่าวหลายประเด็นได้รับการปฏิบัติอย่างละเอียดในหนังสือเล่มที่ 4 เล่มล่าสุดของฉันเกี่ยวกับ 'AI Science and Society' โดยเฉพาะอย่างยิ่งในเล่ม A (เขียนใหม่ในเดือนพฤษภาคม 2023 เพื่อครอบคลุม LLMs และ Artificial General Intelligence) และ C
หนังสืออ้างอิง:
วิทยาศาสตร์ปัญญาประดิษฐ์และสังคม ส่วน C: วิทยาศาสตร์และสังคม AI