บทสัมภาษณ์
Juliette Powell และ Art Kleiner ผู้เขียน The AI Dilemma – Interview Series
AI Dilemma เขียนโดย Juliette Powell และ Art Kleiner
จูเลียตe โพเวลล์ เป็นนักเขียน ผู้สร้างรายการโทรทัศน์ที่มีรายการสด 9,000 รายการ และเป็นนักเทคโนโลยีและนักสังคมวิทยา นอกจากนี้เธอยังเป็นผู้วิจารณ์รายการ Bloomberg TV/ Business News Networks และเป็นวิทยากรในการประชุมที่จัดโดย Economist และ International Finance Corporation TED talk ของเธอมียอดดู 130 ครั้งบน YouTube Juliette ระบุรูปแบบและแนวทางปฏิบัติของผู้นำธุรกิจที่ประสบความสำเร็จซึ่งอาศัย AI และข้อมูลที่มีจริยธรรมเพื่อคว้าชัยชนะ เธออยู่ในคณะที่ ITP ของ NYU ซึ่งเธอสอนสี่หลักสูตร รวมถึงทักษะการออกแบบสำหรับสื่อที่มีความรับผิดชอบ ซึ่งเป็นหลักสูตรที่อิงจากหนังสือของเธอ
อาร์ต ไคลเนอร์ เป็นนักเขียน บรรณาธิการ และนักอนาคตนิยม หนังสือของเขาได้แก่ ยุคของคนนอกรีต, ใครเป็นคนสำคัญจริงๆ, สิทธิพิเศษและความสำเร็จและ ฉลาด. เขาเป็นบรรณาธิการของกลยุทธ์+ธุรกิจ ซึ่งเป็นนิตยสารชนะรางวัลที่จัดพิมพ์โดย PwC Art ยังเป็นคณาจารย์ที่ทำงานมาอย่างยาวนานที่ NYU-ITP และ IMA โดยหลักสูตรของเขาประกอบด้วยการสอนร่วมเทคโนโลยีที่มีความรับผิดชอบและอนาคตของสื่อ
"ภาวะที่กลืนไม่เข้าคายไม่ออกของ AI” เป็นหนังสือที่เน้นถึงอันตรายของเทคโนโลยี AI ในมือของคนผิดแต่ยังคงตระหนักถึงคุณประโยชน์ที่ AI มอบให้สังคม
ปัญหาเกิดขึ้นเนื่องจากเทคโนโลยีพื้นฐานมีความซับซ้อนมากจนเป็นไปไม่ได้ที่ผู้ใช้จะเข้าใจการทำงานภายในของระบบกล่องปิดอย่างแท้จริง
ประเด็นสำคัญที่สุดประการหนึ่งที่เน้นย้ำคือ คำจำกัดความของ AI ที่มีความรับผิดชอบเปลี่ยนแปลงไปอย่างไร เนื่องจากค่านิยมทางสังคมมักจะไม่คงที่เมื่อเวลาผ่านไป
ฉันสนุกกับการอ่านเรื่อง “The AI Dilemma” มาก เป็นหนังสือที่ไม่สะเทือนใจถึงอันตรายของ AI หรือเจาะลึกถึงข้อผิดพลาดที่อาจเกิดขึ้นของปัญญาประดิษฐ์ทั่วไป (AGI) ผู้อ่านจะได้เรียนรู้เกี่ยวกับวิธีที่น่าแปลกใจที่ข้อมูลส่วนตัวของเราถูกใช้โดยที่เราไม่รู้ รวมถึงข้อจำกัดบางประการของ AI ในปัจจุบันและเหตุผลที่น่ากังวล
ด้านล่างนี้เป็นคำถามบางส่วนที่ออกแบบมาเพื่อแสดงให้ผู้อ่านเห็นสิ่งที่พวกเขาคาดหวังได้จากหนังสือแนวใหม่เล่มนี้
อะไรเป็นแรงบันดาลใจให้คุณเขียน “The AI Dilemma” ในตอนแรก
Juliette ไปโคลัมเบียเพื่อศึกษาขีดจำกัดและความเป็นไปได้ของการควบคุม AI เธอเคยได้ยินจากเพื่อนที่ทำงานในโครงการ AI โดยตรงเกี่ยวกับความตึงเครียดที่มีอยู่ในโครงการเหล่านั้น เธอได้ข้อสรุปว่ามีภาวะที่กลืนไม่เข้าคายไม่ออกของ AI ซึ่งเป็นปัญหาที่ใหญ่กว่าการควบคุมตนเองมาก เธอพัฒนาแบบจำลองเกณฑ์มาตรฐาน Apex ซึ่งเป็นแบบจำลองที่การตัดสินใจเกี่ยวกับ AI มีแนวโน้มที่จะมีความรับผิดชอบต่ำเนื่องจากการมีปฏิสัมพันธ์ระหว่างบริษัทและกลุ่มภายในบริษัท นั่นนำไปสู่วิทยานิพนธ์ของเธอ
อาร์ตเคยร่วมงานกับจูเลียตในโครงการเขียนหลายเรื่อง เขาอ่านวิทยานิพนธ์ของเธอแล้วพูดว่า “คุณมีหนังสือที่นี่” จูเลียตเชิญเขาให้ร่วมเขียนมัน ในการทำงานร่วมกัน พวกเขาค้นพบว่าพวกเขามีมุมมองที่แตกต่างกันมาก แต่มีมุมมองที่ชัดเจนว่าปรากฏการณ์ AI ที่ซับซ้อนและมีความเสี่ยงสูงนี้จะต้องได้รับการทำความเข้าใจให้ดีขึ้น เพื่อให้ผู้คนที่ใช้มันสามารถทำหน้าที่ได้อย่างมีความรับผิดชอบและมีประสิทธิภาพมากขึ้น
ปัญหาพื้นฐานประการหนึ่งที่เน้นใน The AI Dilemma คือปัจจุบันนี้เป็นไปไม่ได้ที่จะเข้าใจว่าระบบ AI มีส่วนรับผิดชอบหรือไม่ หรือถ้ามันขยายความไม่เท่าเทียมกันทางสังคมโดยเพียงแค่ศึกษาซอร์สโค้ดของมัน ปัญหานี้ใหญ่ขนาดไหน?
ปัญหาไม่ได้อยู่ที่ซอร์สโค้ดเป็นหลัก ดังที่ Cathy O'Neil ชี้ให้เห็น เมื่อมีระบบกล่องปิด มันไม่ใช่แค่โค้ดเท่านั้น มันเป็นระบบทางสังคมเทคนิค - พลังของมนุษย์และเทคโนโลยีที่หล่อหลอมซึ่งกันและกัน - ที่จำเป็นต้องได้รับการสำรวจ ตรรกะที่สร้างและเผยแพร่ระบบ AI เกี่ยวข้องกับการระบุวัตถุประสงค์ การระบุข้อมูล การจัดลำดับความสำคัญ การสร้างแบบจำลอง การตั้งค่าแนวทางและรั้วสำหรับการเรียนรู้ของเครื่อง และการตัดสินใจว่ามนุษย์ควรเข้าไปแทรกแซงเมื่อใดและอย่างไร นั่นคือส่วนที่ต้องทำให้โปร่งใส อย่างน้อยก็ต่อผู้สังเกตการณ์และผู้ตรวจสอบบัญชี ความเสี่ยงของความไม่เท่าเทียมกันทางสังคมและความเสี่ยงอื่นๆ จะมีมากขึ้นเมื่อส่วนต่างๆ ของกระบวนการนี้ถูกซ่อนไว้ คุณไม่สามารถปรับโครงสร้างตรรกะการออกแบบใหม่จากซอร์สโค้ดได้
สามารถมุ่งความสนใจไปที่ AI ที่อธิบายได้ (XAI) เคยพูดถึงเรื่องนี้บ้างไหม?
สำหรับวิศวกรแล้ว AI ที่อธิบายได้ในปัจจุบันถือเป็นกลุ่มของข้อจำกัดและแนวปฏิบัติทางเทคโนโลยีที่มุ่งเป้าไปที่การทำให้แบบจำลองมีความโปร่งใสมากขึ้นสำหรับผู้ที่ทำงานด้วย สำหรับคนที่ถูกกล่าวหาอย่างเป็นเท็จ ความสามารถในการอธิบายมีความหมายและความเร่งด่วนที่แตกต่างกันโดยสิ้นเชิง พวกเขาต้องการคำอธิบายเพื่อให้สามารถตอบโต้การป้องกันของตนเองได้ เราทุกคนต้องการคำอธิบายในแง่ของการตัดสินใจทางธุรกิจหรือของรัฐบาลที่เป็นรากฐานของโมเดลที่ชัดเจน อย่างน้อยที่สุดในสหรัฐอเมริกา ก็มักจะมีความตึงเครียดระหว่างความสามารถในการอธิบาย — สิทธิ์ของมนุษยชาติในการรู้ — และสิทธิ์ขององค์กรในการแข่งขันและสร้างสรรค์สิ่งใหม่ ๆ ผู้ตรวจสอบและหน่วยงานกำกับดูแลจำเป็นต้องมีระดับการอธิบายที่แตกต่างกัน เราจะลงรายละเอียดเพิ่มเติมใน The AI Dilemma
คุณสามารถแบ่งปันมุมมองของคุณโดยย่อเกี่ยวกับความสำคัญของการถือครองผู้มีส่วนได้ส่วนเสีย (บริษัท AI) ที่รับผิดชอบโค้ดที่พวกเขาเผยแพร่สู่โลกได้หรือไม่
จนถึงตอนนี้ เช่น ในเมืองเทมพี รัฐแอริโซนา อุบัติเหตุรถยนต์ไร้คนขับซึ่งทำให้คนเดินถนนเสียชีวิต ผู้ปฏิบัติงานต้องเป็นผู้รับผิดชอบ บุคคลหนึ่งเข้าคุก อย่างไรก็ตาม ท้ายที่สุดแล้ว มันเป็นความล้มเหลวขององค์กร
เมื่อสะพานพัง วิศวกรเครื่องกลจะต้องรับผิดชอบ นั่นเป็นเพราะว่าวิศวกรเครื่องกลได้รับการฝึกอบรม ฝึกอบรมซ้ำอย่างต่อเนื่อง และต้องรับผิดชอบในวิชาชีพของตน วิศวกรคอมพิวเตอร์ไม่ได้
ผู้มีส่วนได้ส่วนเสีย รวมถึงบริษัท AI ควรได้รับการฝึกอบรมและฝึกอบรมซ้ำเพื่อการตัดสินใจที่ดีขึ้นและมีความรับผิดชอบมากขึ้นหรือไม่
ภาวะที่กลืนไม่เข้าคายไม่ออกของ AI มุ่งเน้นไปที่วิธีที่บริษัทอย่าง Google และ Meta สามารถเก็บเกี่ยวและสร้างรายได้จากข้อมูลส่วนบุคคลของเราได้อย่างไร คุณช่วยแบ่งปันตัวอย่างการใช้ข้อมูลของเราในทางที่ผิดอย่างมีนัยสำคัญซึ่งควรเป็นที่จับตามองของทุกคนได้ไหม
จาก The AI Dilemma หน้า 67ff:
กรณีใหม่ๆ ของการใช้ข้อมูลส่วนบุคคลในทางที่ผิดยังคงปรากฏให้เห็นในที่สาธารณะ หลายกรณีเกี่ยวข้องกับการใช้การจดจำใบหน้าอย่างซ่อนเร้น ในเดือนธันวาคม 2022 MIT Technology Review ได้เผยแพร่เรื่องราวเกี่ยวกับแนวทางปฏิบัติของ iRobot ที่มีมายาวนาน หุ่นยนต์ในครัวเรือน Roomba บันทึกรูปภาพและวิดีโอที่ถ่ายในบ้านของผู้ทดสอบเบต้า ซึ่งหมายถึงการรวบรวมรูปภาพส่วนตัวและครอบครัวที่เกี่ยวข้องอย่างหลีกเลี่ยงไม่ได้ สิ่งเหล่านี้ถูกแชร์กับกลุ่มที่อยู่นอกประเทศโดยที่ผู้ทดสอบไม่รู้ตัว อย่างน้อย 16 กรณี มีการโพสต์ภาพบุคคลในห้องน้ำบนเฟซบุ๊ก ในขณะเดียวกัน ในอิหร่าน เจ้าหน้าที่ได้เริ่มใช้ข้อมูลจากระบบจดจำใบหน้าเพื่อติดตามและจับกุมผู้หญิงที่ไม่สวมฮิญาบXNUMX
ไม่จำเป็นต้องอธิบายเรื่องราวเหล่านี้อีกต่อไป มีมากมายของพวกเขา อย่างไรก็ตาม เป็นสิ่งสำคัญที่จะต้องระบุผลสะสมของการดำเนินชีวิตเช่นนี้ เราสูญเสียความรู้สึกในการควบคุมชีวิตของเราเมื่อเรารู้สึกว่าข้อมูลส่วนตัวของเราอาจถูกนำไปใช้กับเราได้ตลอดเวลาโดยไม่มีการเตือนล่วงหน้า
แนวคิดที่เป็นอันตรายประการหนึ่งที่ถูกหยิบยกขึ้นมาคือวิธีที่โลกทั้งใบของเราได้รับการออกแบบมาให้ไม่มีความขัดแย้ง โดยคำจำกัดความของความขัดแย้งคือ “จุดใดก็ได้ในการเดินทางของลูกค้ากับบริษัทที่พวกเขาพบกับอุปสรรคที่ทำให้พวกเขาช้าลงหรือทำให้เกิดความไม่พอใจ” ความคาดหวังของเราเกี่ยวกับประสบการณ์ที่ราบรื่นอาจนำไปสู่ AI ที่เป็นอันตรายได้อย่างไร
ในนิวซีแลนด์ บอทอาหารที่เชี่ยวชาญของ Pak'n'Save แนะนำสูตรอาหารที่จะสร้างก๊าซคลอรีนหากใช้ นี่เป็นการส่งเสริมให้ลูกค้าได้ใช้ของเหลือและประหยัดเงิน
ความไร้แรงเสียดทานทำให้เกิดภาพลวงตาของการควบคุม การฟังแอปทำได้เร็วและง่ายกว่าการค้นหาสูตรอาหารของคุณยาย ผู้คนเดินตามเส้นทางที่มีการต่อต้านน้อยที่สุด และไม่รู้ว่ามันพาพวกเขาไปที่ไหน
ในทางตรงกันข้าม แรงเสียดทานคือความคิดสร้างสรรค์ คุณมีส่วนร่วม สิ่งนี้นำไปสู่การควบคุมที่แท้จริง การควบคุมที่แท้จริงจำเป็นต้องได้รับความเอาใจใส่และการทำงาน และในกรณีของ AI จะต้องทำการวิเคราะห์ต้นทุนและผลประโยชน์เพิ่มเติม
ด้วยภาพลวงตาของการควบคุม มันให้ความรู้สึกเหมือนเราอยู่ในโลกที่ระบบ AI กำลังกระตุ้นมนุษย์ แทนที่จะเป็นมนุษย์ที่ยังคงควบคุมได้อย่างเต็มที่ มีตัวอย่างอะไรบ้างที่คุณสามารถยกให้มนุษย์โดยรวมเชื่อว่าพวกเขาสามารถควบคุมได้ ทั้งๆ ที่จริงๆ แล้วพวกเขาไม่มีเลย?
ซานฟรานซิสโกตอนนี้ มีหุ่นยนต์แท็กซี่ แนวคิดเรื่องแท็กซี่ไร้คนขับมีแนวโน้มที่จะนำมาซึ่งอารมณ์ความรู้สึกที่ขัดแย้งกันสองอย่าง: ความตื่นเต้น (“แท็กซี่ราคาถูกกว่ามาก!”) และความกลัว (“พวกเขาจะตีฉันหรือเปล่า?”) ดังนั้น หน่วยงานกำกับดูแลหลายแห่งแนะนำให้ทดสอบรถกับผู้คน ในนั้นใครสามารถจัดการการควบคุมได้ น่าเสียดายที่การมีมนุษย์คอยแจ้งเตือนและพร้อมที่จะแทนที่ระบบแบบเรียลไทม์ อาจไม่ใช่การทดสอบความปลอดภัยสาธารณะที่ดี ความมั่นใจมากเกินไปมักเกิดขึ้นบ่อยครั้งกับระบบ AI ยิ่งระบบมีความเป็นอิสระมากเท่าใด ผู้ปฏิบัติงานที่เป็นมนุษย์ก็จะมีแนวโน้มที่จะเชื่อใจระบบมากขึ้นและไม่ให้ความสนใจอย่างเต็มที่ เราเบื่อที่จะดูเทคโนโลยีเหล่านี้ เมื่ออุบัติเหตุกำลังจะเกิดขึ้นจริงๆ เราไม่คาดหวังและมักจะตอบสนองไม่ทัน
หนังสือเล่มนี้มีการค้นคว้าวิจัยมากมาย มีอะไรที่ทำให้คุณประหลาดใจบ้างไหม?
สิ่งหนึ่งที่ทำให้เราประหลาดใจมากคือผู้คนทั่วโลกไม่สามารถตกลงกันว่าใครควรอยู่และใครควรตายในนั้น การจำลองเครื่องคุณธรรม จากการชนรถยนต์ไร้คนขับ หากเราไม่สามารถตกลงกันได้ ก็ยากที่จะจินตนาการว่าเราสามารถรวมการกำกับดูแลระดับโลกหรือมาตรฐานสากลสำหรับระบบ AI ได้
คุณทั้งคู่เปรียบเสมือนผู้ประกอบการ สิ่งที่คุณเรียนรู้และรายงานจะส่งผลต่อความพยายามในอนาคตของคุณอย่างไร
แนวทางปฏิบัติด้านการให้คำปรึกษาด้าน AI ของเรามุ่งเน้นที่การช่วยให้องค์กรเติบโตอย่างมีความรับผิดชอบด้วยเทคโนโลยี นักกฎหมาย วิศวกร นักสังคมศาสตร์ และนักคิดทางธุรกิจล้วนเป็นผู้มีส่วนได้ส่วนเสียในอนาคตของ AI ในงานของเรา เรานำมุมมองทั้งหมดเหล่านี้มารวมกันและฝึกฝนความขัดแย้งอย่างสร้างสรรค์เพื่อค้นหาวิธีแก้ปัญหาที่ดีกว่า เราได้พัฒนากรอบการทำงาน เช่น แคลคูลัสของความเสี่ยงโดยเจตนา เพื่อช่วยแก้ไขปัญหาเหล่านี้
ขอบคุณสำหรับคำตอบที่ดี ผู้อ่านที่ต้องการเรียนรู้เพิ่มเติมควรเยี่ยมชม ภาวะที่กลืนไม่เข้าคายไม่ออกของ AI.