ต้นขั้ว Juliette Powell และ Art Kleiner ผู้เขียน The AI ​​Dilemma - ซีรี่ส์สัมภาษณ์ - Unite.AI
เชื่อมต่อกับเรา

บทสัมภาษณ์

Juliette Powell และ Art Kleiner ผู้เขียน The AI ​​Dilemma – Interview Series

mm

การตีพิมพ์

 on

AI Dilemma เขียนโดย Juliette Powell และ Art Kleiner

จูเลียตe โพเวลล์ เป็นนักเขียน ผู้สร้างรายการโทรทัศน์ที่มีรายการสด 9,000 รายการ และเป็นนักเทคโนโลยีและนักสังคมวิทยา นอกจากนี้เธอยังเป็นผู้วิจารณ์รายการ Bloomberg TV/ Business News Networks และเป็นวิทยากรในการประชุมที่จัดโดย Economist และ International Finance Corporation TED talk ของเธอมียอดดู 130 ครั้งบน YouTube Juliette ระบุรูปแบบและแนวทางปฏิบัติของผู้นำธุรกิจที่ประสบความสำเร็จซึ่งอาศัย AI และข้อมูลที่มีจริยธรรมเพื่อคว้าชัยชนะ เธออยู่ในคณะที่ ITP ของ NYU ซึ่งเธอสอนสี่หลักสูตร รวมถึงทักษะการออกแบบสำหรับสื่อที่มีความรับผิดชอบ ซึ่งเป็นหลักสูตรที่อิงจากหนังสือของเธอ

"ภาวะที่กลืนไม่เข้าคายไม่ออกของ AI” เป็นหนังสือที่เน้นถึงอันตรายของเทคโนโลยี AI ในมือของคนผิดแต่ยังคงตระหนักถึงคุณประโยชน์ที่ AI มอบให้สังคม

ปัญหาเกิดขึ้นเนื่องจากเทคโนโลยีพื้นฐานมีความซับซ้อนมากจนเป็นไปไม่ได้ที่ผู้ใช้จะเข้าใจการทำงานภายในของระบบกล่องปิดอย่างแท้จริง

ประเด็นสำคัญที่สุดประการหนึ่งที่เน้นย้ำคือ คำจำกัดความของ AI ที่มีความรับผิดชอบเปลี่ยนแปลงไปอย่างไร เนื่องจากค่านิยมทางสังคมมักจะไม่คงที่เมื่อเวลาผ่านไป

ฉันสนุกกับการอ่านเรื่อง “The AI ​​Dilemma” มาก เป็นหนังสือที่ไม่สะเทือนใจถึงอันตรายของ AI หรือเจาะลึกถึงข้อผิดพลาดที่อาจเกิดขึ้นของปัญญาประดิษฐ์ทั่วไป (AGI) ผู้อ่านจะได้เรียนรู้เกี่ยวกับวิธีที่น่าแปลกใจที่ข้อมูลส่วนตัวของเราถูกใช้โดยที่เราไม่รู้ รวมถึงข้อจำกัดบางประการของ AI ในปัจจุบันและเหตุผลที่น่ากังวล

ด้านล่างนี้เป็นคำถามบางส่วนที่ออกแบบมาเพื่อแสดงให้ผู้อ่านเห็นสิ่งที่พวกเขาคาดหวังได้จากหนังสือแนวใหม่เล่มนี้

อะไรเป็นแรงบันดาลใจให้คุณเขียน “The AI ​​Dilemma” ในตอนแรก

Juliette ไปโคลัมเบียเพื่อศึกษาขีดจำกัดและความเป็นไปได้ของการควบคุม AI เธอเคยได้ยินจากเพื่อนที่ทำงานในโครงการ AI โดยตรงเกี่ยวกับความตึงเครียดที่มีอยู่ในโครงการเหล่านั้น เธอได้ข้อสรุปว่ามีภาวะที่กลืนไม่เข้าคายไม่ออกของ AI ซึ่งเป็นปัญหาที่ใหญ่กว่าการควบคุมตนเองมาก เธอพัฒนาแบบจำลองเกณฑ์มาตรฐาน Apex ซึ่งเป็นแบบจำลองที่การตัดสินใจเกี่ยวกับ AI มีแนวโน้มที่จะมีความรับผิดชอบต่ำเนื่องจากการมีปฏิสัมพันธ์ระหว่างบริษัทและกลุ่มภายในบริษัท นั่นนำไปสู่วิทยานิพนธ์ของเธอ

อาร์ตเคยร่วมงานกับจูเลียตในโครงการเขียนหลายเรื่อง เขาอ่านวิทยานิพนธ์ของเธอแล้วพูดว่า “คุณมีหนังสือที่นี่” จูเลียตเชิญเขาให้ร่วมเขียนมัน ในการทำงานร่วมกัน พวกเขาค้นพบว่าพวกเขามีมุมมองที่แตกต่างกันมาก แต่มีมุมมองที่ชัดเจนว่าปรากฏการณ์ AI ที่ซับซ้อนและมีความเสี่ยงสูงนี้จะต้องได้รับการทำความเข้าใจให้ดีขึ้น เพื่อให้ผู้คนที่ใช้มันสามารถทำหน้าที่ได้อย่างมีความรับผิดชอบและมีประสิทธิภาพมากขึ้น

ปัญหาพื้นฐานประการหนึ่งที่เน้นใน The AI ​​Dilemma คือปัจจุบันนี้เป็นไปไม่ได้ที่จะเข้าใจว่าระบบ AI มีส่วนรับผิดชอบหรือไม่ หรือถ้ามันขยายความไม่เท่าเทียมกันทางสังคมโดยเพียงแค่ศึกษาซอร์สโค้ดของมัน ปัญหานี้ใหญ่ขนาดไหน?

ปัญหาไม่ได้อยู่ที่ซอร์สโค้ดเป็นหลัก ดังที่ Cathy O'Neil ชี้ให้เห็น เมื่อมีระบบกล่องปิด มันไม่ใช่แค่โค้ดเท่านั้น มันเป็นระบบทางสังคมเทคนิค - พลังของมนุษย์และเทคโนโลยีที่หล่อหลอมซึ่งกันและกัน - ที่จำเป็นต้องได้รับการสำรวจ ตรรกะที่สร้างและเผยแพร่ระบบ AI เกี่ยวข้องกับการระบุวัตถุประสงค์ การระบุข้อมูล การจัดลำดับความสำคัญ การสร้างแบบจำลอง การตั้งค่าแนวทางและรั้วสำหรับการเรียนรู้ของเครื่อง และการตัดสินใจว่ามนุษย์ควรเข้าไปแทรกแซงเมื่อใดและอย่างไร นั่นคือส่วนที่ต้องทำให้โปร่งใส อย่างน้อยก็ต่อผู้สังเกตการณ์และผู้ตรวจสอบบัญชี ความเสี่ยงของความไม่เท่าเทียมกันทางสังคมและความเสี่ยงอื่นๆ จะมีมากขึ้นเมื่อส่วนต่างๆ ของกระบวนการนี้ถูกซ่อนไว้ คุณไม่สามารถปรับโครงสร้างตรรกะการออกแบบใหม่จากซอร์สโค้ดได้

สามารถมุ่งความสนใจไปที่ AI ที่อธิบายได้ (XAI) เคยพูดถึงเรื่องนี้บ้างไหม?

สำหรับวิศวกรแล้ว AI ที่อธิบายได้ในปัจจุบันถือเป็นกลุ่มของข้อจำกัดและแนวปฏิบัติทางเทคโนโลยีที่มุ่งเป้าไปที่การทำให้แบบจำลองมีความโปร่งใสมากขึ้นสำหรับผู้ที่ทำงานด้วย สำหรับคนที่ถูกกล่าวหาอย่างเป็นเท็จ ความสามารถในการอธิบายมีความหมายและความเร่งด่วนที่แตกต่างกันโดยสิ้นเชิง พวกเขาต้องการคำอธิบายเพื่อให้สามารถตอบโต้การป้องกันของตนเองได้ เราทุกคนต้องการคำอธิบายในแง่ของการตัดสินใจทางธุรกิจหรือของรัฐบาลที่เป็นรากฐานของโมเดลที่ชัดเจน อย่างน้อยที่สุดในสหรัฐอเมริกา ก็มักจะมีความตึงเครียดระหว่างความสามารถในการอธิบาย — สิทธิ์ของมนุษยชาติในการรู้ — และสิทธิ์ขององค์กรในการแข่งขันและสร้างสรรค์สิ่งใหม่ ๆ ผู้ตรวจสอบและหน่วยงานกำกับดูแลจำเป็นต้องมีระดับการอธิบายที่แตกต่างกัน เราจะลงรายละเอียดเพิ่มเติมใน The AI ​​Dilemma

คุณสามารถแบ่งปันมุมมองของคุณโดยย่อเกี่ยวกับความสำคัญของการถือครองผู้มีส่วนได้ส่วนเสีย (บริษัท AI) ที่รับผิดชอบโค้ดที่พวกเขาเผยแพร่สู่โลกได้หรือไม่

จนถึงตอนนี้ เช่น ในเมืองเทมพี รัฐแอริโซนา อุบัติเหตุรถยนต์ไร้คนขับซึ่งทำให้คนเดินถนนเสียชีวิต ผู้ปฏิบัติงานต้องเป็นผู้รับผิดชอบ บุคคลหนึ่งเข้าคุก อย่างไรก็ตาม ท้ายที่สุดแล้ว มันเป็นความล้มเหลวขององค์กร

เมื่อสะพานพัง วิศวกรเครื่องกลจะต้องรับผิดชอบ นั่นเป็นเพราะว่าวิศวกรเครื่องกลได้รับการฝึกอบรม ฝึกอบรมซ้ำอย่างต่อเนื่อง และต้องรับผิดชอบในวิชาชีพของตน วิศวกรคอมพิวเตอร์ไม่ได้

ผู้มีส่วนได้ส่วนเสีย รวมถึงบริษัท AI ควรได้รับการฝึกอบรมและฝึกอบรมซ้ำเพื่อการตัดสินใจที่ดีขึ้นและมีความรับผิดชอบมากขึ้นหรือไม่

ภาวะที่กลืนไม่เข้าคายไม่ออกของ AI มุ่งเน้นไปที่วิธีที่บริษัทอย่าง Google และ Meta สามารถเก็บเกี่ยวและสร้างรายได้จากข้อมูลส่วนบุคคลของเราได้อย่างไร คุณช่วยแบ่งปันตัวอย่างการใช้ข้อมูลของเราในทางที่ผิดอย่างมีนัยสำคัญซึ่งควรเป็นที่จับตามองของทุกคนได้ไหม

จาก The AI ​​Dilemma หน้า 67ff:

กรณีใหม่ๆ ของการใช้ข้อมูลส่วนบุคคลในทางที่ผิดยังคงปรากฏให้เห็นในที่สาธารณะ หลายกรณีเกี่ยวข้องกับการใช้การจดจำใบหน้าอย่างซ่อนเร้น ในเดือนธันวาคม 2022 MIT Technology Review ได้เผยแพร่เรื่องราวเกี่ยวกับแนวทางปฏิบัติของ iRobot ที่มีมายาวนาน หุ่นยนต์ในครัวเรือน Roomba บันทึกรูปภาพและวิดีโอที่ถ่ายในบ้านของผู้ทดสอบเบต้า ซึ่งหมายถึงการรวบรวมรูปภาพส่วนตัวและครอบครัวที่เกี่ยวข้องอย่างหลีกเลี่ยงไม่ได้ สิ่งเหล่านี้ถูกแชร์กับกลุ่มที่อยู่นอกประเทศโดยที่ผู้ทดสอบไม่รู้ตัว อย่างน้อย 16 กรณี มีการโพสต์ภาพบุคคลในห้องน้ำบนเฟซบุ๊ก ในขณะเดียวกัน ในอิหร่าน เจ้าหน้าที่ได้เริ่มใช้ข้อมูลจากระบบจดจำใบหน้าเพื่อติดตามและจับกุมผู้หญิงที่ไม่สวมฮิญาบXNUMX

ไม่จำเป็นต้องอธิบายเรื่องราวเหล่านี้อีกต่อไป มีมากมายของพวกเขา อย่างไรก็ตาม เป็นสิ่งสำคัญที่จะต้องระบุผลสะสมของการดำเนินชีวิตเช่นนี้ เราสูญเสียความรู้สึกในการควบคุมชีวิตของเราเมื่อเรารู้สึกว่าข้อมูลส่วนตัวของเราอาจถูกนำไปใช้กับเราได้ตลอดเวลาโดยไม่มีการเตือนล่วงหน้า

แนวคิดที่เป็นอันตรายประการหนึ่งที่ถูกหยิบยกขึ้นมาคือวิธีที่โลกทั้งใบของเราได้รับการออกแบบมาให้ไม่มีความขัดแย้ง โดยคำจำกัดความของความขัดแย้งคือ “จุดใดก็ได้ในการเดินทางของลูกค้ากับบริษัทที่พวกเขาพบกับอุปสรรคที่ทำให้พวกเขาช้าลงหรือทำให้เกิดความไม่พอใจ” ความคาดหวังของเราเกี่ยวกับประสบการณ์ที่ราบรื่นอาจนำไปสู่ ​​AI ที่เป็นอันตรายได้อย่างไร

ในนิวซีแลนด์ บอทอาหารที่เชี่ยวชาญของ Pak'n'Save แนะนำสูตรอาหารที่จะสร้างก๊าซคลอรีนหากใช้ นี่เป็นการส่งเสริมให้ลูกค้าได้ใช้ของเหลือและประหยัดเงิน

ความไร้แรงเสียดทานทำให้เกิดภาพลวงตาของการควบคุม การฟังแอปทำได้เร็วและง่ายกว่าการค้นหาสูตรอาหารของคุณยาย ผู้คนเดินตามเส้นทางที่มีการต่อต้านน้อยที่สุด และไม่รู้ว่ามันพาพวกเขาไปที่ไหน

ในทางตรงกันข้าม แรงเสียดทานคือความคิดสร้างสรรค์ คุณมีส่วนร่วม สิ่งนี้นำไปสู่การควบคุมที่แท้จริง การควบคุมที่แท้จริงจำเป็นต้องได้รับความเอาใจใส่และการทำงาน และในกรณีของ AI จะต้องทำการวิเคราะห์ต้นทุนและผลประโยชน์เพิ่มเติม

ด้วยภาพลวงตาของการควบคุม มันให้ความรู้สึกเหมือนเราอยู่ในโลกที่ระบบ AI กำลังกระตุ้นมนุษย์ แทนที่จะเป็นมนุษย์ที่ยังคงควบคุมได้อย่างเต็มที่ มีตัวอย่างอะไรบ้างที่คุณสามารถยกให้มนุษย์โดยรวมเชื่อว่าพวกเขาสามารถควบคุมได้ ทั้งๆ ที่จริงๆ แล้วพวกเขาไม่มีเลย?

ซานฟรานซิสโกตอนนี้ มีหุ่นยนต์แท็กซี่ แนวคิดเรื่องแท็กซี่ไร้คนขับมีแนวโน้มที่จะนำมาซึ่งอารมณ์ความรู้สึกที่ขัดแย้งกันสองอย่าง: ความตื่นเต้น (“แท็กซี่ราคาถูกกว่ามาก!”) และความกลัว (“พวกเขาจะตีฉันหรือเปล่า?”) ดังนั้น หน่วยงานกำกับดูแลหลายแห่งแนะนำให้ทดสอบรถกับผู้คน ในนั้นใครสามารถจัดการการควบคุมได้ น่าเสียดายที่การมีมนุษย์คอยแจ้งเตือนและพร้อมที่จะแทนที่ระบบแบบเรียลไทม์ อาจไม่ใช่การทดสอบความปลอดภัยสาธารณะที่ดี ความมั่นใจมากเกินไปมักเกิดขึ้นบ่อยครั้งกับระบบ AI ยิ่งระบบมีความเป็นอิสระมากเท่าใด ผู้ปฏิบัติงานที่เป็นมนุษย์ก็จะมีแนวโน้มที่จะเชื่อใจระบบมากขึ้นและไม่ให้ความสนใจอย่างเต็มที่ เราเบื่อที่จะดูเทคโนโลยีเหล่านี้ เมื่ออุบัติเหตุกำลังจะเกิดขึ้นจริงๆ เราไม่คาดหวังและมักจะตอบสนองไม่ทัน

หนังสือเล่มนี้มีการค้นคว้าวิจัยมากมาย มีอะไรที่ทำให้คุณประหลาดใจบ้างไหม?

สิ่งหนึ่งที่ทำให้เราประหลาดใจมากคือผู้คนทั่วโลกไม่สามารถตกลงกันว่าใครควรอยู่และใครควรตายในนั้น การจำลองเครื่องคุณธรรม จากการชนรถยนต์ไร้คนขับ หากเราไม่สามารถตกลงกันได้ ก็ยากที่จะจินตนาการว่าเราสามารถรวมการกำกับดูแลระดับโลกหรือมาตรฐานสากลสำหรับระบบ AI ได้

คุณทั้งคู่เปรียบเสมือนผู้ประกอบการ สิ่งที่คุณเรียนรู้และรายงานจะส่งผลต่อความพยายามในอนาคตของคุณอย่างไร

แนวทางปฏิบัติด้านการให้คำปรึกษาด้าน AI ของเรามุ่งเน้นที่การช่วยให้องค์กรเติบโตอย่างมีความรับผิดชอบด้วยเทคโนโลยี นักกฎหมาย วิศวกร นักสังคมศาสตร์ และนักคิดทางธุรกิจล้วนเป็นผู้มีส่วนได้ส่วนเสียในอนาคตของ AI ในงานของเรา เรานำมุมมองทั้งหมดเหล่านี้มารวมกันและฝึกฝนความขัดแย้งอย่างสร้างสรรค์เพื่อค้นหาวิธีแก้ปัญหาที่ดีกว่า เราได้พัฒนากรอบการทำงาน เช่น แคลคูลัสของความเสี่ยงโดยเจตนา เพื่อช่วยแก้ไขปัญหาเหล่านี้

ขอบคุณสำหรับคำตอบที่ดี ผู้อ่านที่ต้องการเรียนรู้เพิ่มเติมควรเยี่ยมชม ภาวะที่กลืนไม่เข้าคายไม่ออกของ AI.

ผู้ร่วมก่อตั้ง unite.AI และเป็นสมาชิกของ สภาเทคโนโลยี Forbes อองตวนเป็นอ ผู้เป็นเจ้ายังมาไม่ถึง ผู้หลงใหลเกี่ยวกับอนาคตของ AI และหุ่นยนต์

เขายังเป็นผู้ก่อตั้ง หลักทรัพย์.ioซึ่งเป็นเว็บไซต์ที่เน้นการลงทุนด้านเทคโนโลยีก่อกวน