เชื่อมต่อกับเรา

บทสัมภาษณ์

Yaron Singer ซีอีโอของ Robust Intelligence และศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่ Harvard University – ซีรีส์สัมภาษณ์

mm

การตีพิมพ์

 on

Yaron Singer เป็น CEO ของ สติปัญญาที่แข็งแกร่ง และศาสตราจารย์สาขาวิทยาการคอมพิวเตอร์และคณิตศาสตร์ประยุกต์ที่มหาวิทยาลัยฮาร์วาร์ด Yaron มีชื่อเสียงในด้านผลลัพธ์ที่ก้าวล้ำในด้านการเรียนรู้ของเครื่อง อัลกอริธึม และการเพิ่มประสิทธิภาพ ก่อนหน้านี้ Yaron ทำงานที่ Google Research และได้รับปริญญาเอกจาก UC Berkeley

อะไรทำให้คุณสนใจสาขาวิทยาการคอมพิวเตอร์และแมชชีนเลิร์นนิงในตอนแรก?

การเดินทางของฉันเริ่มต้นด้วยคณิตศาสตร์ ซึ่งนำฉันไปสู่วิทยาการคอมพิวเตอร์ ซึ่งทำให้ฉันอยู่บนเส้นทางสู่การเรียนรู้ของเครื่อง คณิตศาสตร์ดึงความสนใจของฉันในตอนแรกเพราะระบบสัจพจน์ทำให้ฉันสามารถสร้างโลกใหม่ได้ ด้วยวิทยาการคอมพิวเตอร์ ฉันได้เรียนรู้เกี่ยวกับการพิสูจน์ตัวตน แต่ยังรวมถึงอัลกอริทึมที่อยู่เบื้องหลังพวกเขาด้วย จากมุมมองที่สร้างสรรค์ วิทยาการคอมพิวเตอร์คือการวาดเส้นแบ่งระหว่างสิ่งที่เราทำได้และทำไม่ได้

ความสนใจในแมชชีนเลิร์นนิงของฉันมีรากฐานมาจากความสนใจในข้อมูลจริงเสมอ ซึ่งเกือบจะเป็นลักษณะทางกายภาพของมัน นำสิ่งต่าง ๆ จากโลกแห่งความเป็นจริงมาสร้างแบบจำลองเพื่อสร้างสิ่งที่มีความหมาย เราสามารถสร้างโลกที่ดีขึ้นได้อย่างแท้จริงผ่านการสร้างแบบจำลองที่มีความหมาย คณิตศาสตร์ทำให้ฉันมีพื้นฐานในการพิสูจน์สิ่งต่างๆ วิทยาการคอมพิวเตอร์ช่วยให้ฉันเห็นสิ่งที่ทำได้และทำไม่ได้ และการเรียนรู้ด้วยเครื่องช่วยให้ฉันสร้างแบบจำลองแนวคิดเหล่านี้ในโลกได้

จนกระทั่งเมื่อเร็วๆ นี้ คุณเป็นศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์และคณิตศาสตร์ประยุกต์ที่มหาวิทยาลัยฮาร์วาร์ด อะไรคือประเด็นสำคัญที่คุณได้รับรู้จากประสบการณ์นี้

สิ่งที่ยิ่งใหญ่ที่สุดของฉันจากการเป็นอาจารย์ที่ Harvard คือการพัฒนาความกระหายที่จะทำสิ่งที่ยิ่งใหญ่ ตามธรรมเนียมแล้ว Harvard มีคณาจารย์ขนาดเล็ก และความคาดหวังจากคณาจารย์ที่ติดตามการดำรงตำแหน่งคือการจัดการปัญหาใหญ่และสร้างสาขาใหม่ คุณต้องกล้าหาญ สิ่งนี้กลายเป็นการเตรียมการที่ยอดเยี่ยมสำหรับการเปิดตัวการเริ่มต้นสร้างหมวดหมู่โดยกำหนดพื้นที่ใหม่ ฉันไม่แนะนำให้ผ่านเส้นทางการดำรงตำแหน่งของ Harvard ก่อน แต่ถ้าคุณรอดมาได้ การสร้างสตาร์ทอัพจะง่ายกว่า

คุณช่วยอธิบายช่วงเวลาที่ 'aha' ของคุณเมื่อคุณตระหนักว่าระบบ AI ที่ซับซ้อนนั้นมีความเสี่ยงต่อข้อมูลที่ไม่ดี โดยอาจมีผลกระทบที่กว้างไกลหรือไม่?

เมื่อฉันเป็นนักศึกษาระดับบัณฑิตศึกษาที่ UC Berkeley ฉันใช้เวลาว่างเพื่อทำสตาร์ทอัพที่สร้างโมเดลแมชชีนเลิร์นนิงสำหรับการตลาดในโซเชียลเน็ตเวิร์ก ย้อนกลับไปในปี 2010 เรามีข้อมูลจำนวนมหาศาลจากโซเชียลมีเดีย และเราเขียนโค้ดโมเดลทั้งหมดตั้งแต่เริ่มต้น ผลกระทบทางการเงินสำหรับผู้ค้าปลีกมีความสำคัญมาก ดังนั้นเราจึงติดตามประสิทธิภาพของโมเดลอย่างใกล้ชิด เนื่องจากเราใช้ข้อมูลจากโซเชียลมีเดีย จึงมีข้อผิดพลาดมากมายในการป้อนข้อมูล เช่นเดียวกับการเลื่อน เราพบว่าข้อผิดพลาดเพียงเล็กน้อยส่งผลให้เกิดการเปลี่ยนแปลงครั้งใหญ่ในเอาต์พุตของโมเดล และอาจส่งผลให้เกิดผลลัพธ์ทางการเงินที่ไม่ดีสำหรับผู้ค้าปลีกที่ใช้ผลิตภัณฑ์นี้

เมื่อฉันเปลี่ยนไปใช้ Google+ (สำหรับพวกเราที่จำได้) ฉันก็เห็นผลเช่นเดียวกัน ยิ่งกว่านั้น ในระบบอย่างเช่น AdWords ที่มีการคาดคะเนเกี่ยวกับความเป็นไปได้ที่ผู้คนจะคลิกโฆษณาสำหรับคำหลัก เราสังเกตเห็นว่าข้อผิดพลาดเล็กน้อยในการป้อนข้อมูลไปยังแบบจำลองนำไปสู่การคาดคะเนที่แย่มาก เมื่อคุณเห็นปัญหานี้ในระดับ Google คุณจะตระหนักว่าปัญหานั้นเป็นเรื่องสากล

ประสบการณ์เหล่านี้ทำให้การวิจัยของฉันเปลี่ยนไปอย่างมาก และฉันใช้เวลาที่ฮาร์วาร์ดในการสืบสวนว่าเหตุใดโมเดล AI จึงทำผิดพลาด และที่สำคัญที่สุดคือ วิธีออกแบบอัลกอริทึมที่สามารถป้องกันไม่ให้โมเดลทำผิดพลาดได้ แน่นอนว่าสิ่งนี้นำไปสู่ช่วงเวลา 'aha' มากขึ้น และในที่สุดก็นำไปสู่การสร้าง Robust Intelligence

คุณช่วยแบ่งปันเรื่องราวกำเนิดเบื้องหลัง Robust Intelligence ได้ไหม?

Robust Intelligence เริ่มต้นจากการวิจัยเกี่ยวกับสิ่งที่เป็นปัญหาทางทฤษฎีในตอนแรก: อะไรเป็นหลักประกันที่เราสามารถทำได้สำหรับการตัดสินใจโดยใช้โมเดล AI โคจินเป็นนักศึกษาที่ฮาร์วาร์ด และเราทำงานร่วมกัน โดยเริ่มเขียนงานวิจัย ดังนั้นจึงเริ่มต้นด้วยการเขียนเอกสารที่สรุปสิ่งที่เป็นไปได้โดยพื้นฐานและเป็นไปไม่ได้ในทางทฤษฎี ผลลัพธ์เหล่านี้ส่งต่อไปยังโปรแกรมสำหรับการออกแบบอัลกอริทึมและโมเดลที่ทนทานต่อความล้มเหลวของ AI จากนั้นเราจะสร้างระบบที่สามารถเรียกใช้อัลกอริทึมเหล่านี้ในทางปฏิบัติ หลังจากนั้น การเริ่มต้นบริษัทที่องค์กรต่างๆ สามารถใช้ระบบเช่นนี้ได้ถือเป็นขั้นตอนต่อไปตามธรรมชาติ

ปัญหามากมายที่ Robust Intelligence จัดการนั้นเป็นข้อผิดพลาดที่เงียบเชียบ สิ่งเหล่านี้คืออะไรและอะไรทำให้พวกเขาอันตรายมาก

ก่อนที่จะให้คำจำกัดความทางเทคนิคของข้อผิดพลาดที่ไม่มีการโต้ตอบ คุณควรย้อนกลับไปหนึ่งก้าวและทำความเข้าใจว่าเหตุใดเราจึงควรสนใจเกี่ยวกับ AI ที่ทำให้เกิดข้อผิดพลาดตั้งแต่แรก เหตุผลที่เราใส่ใจเกี่ยวกับความผิดพลาดของโมเดล AI คือผลที่ตามมาจากความผิดพลาดเหล่านี้ โลกของเรากำลังใช้ AI เพื่อทำการตัดสินใจที่สำคัญโดยอัตโนมัติ: ใครได้รับเงินกู้ธุรกิจและอัตราดอกเบี้ยเท่าใด ใครได้รับการประกันสุขภาพและอัตราเท่าใด ตำรวจควรลาดตระเวนย่านไหน ใครมีแนวโน้มที่จะเป็นผู้สมัครอันดับต้น ๆ สำหรับงาน เราควรจัดระบบรักษาความปลอดภัยสนามบินอย่างไร เป็นต้น ความจริงที่ว่าโมเดล AI นั้นเกิดข้อผิดพลาดได้ง่ายมาก หมายความว่าในการตัดสินใจที่สำคัญเหล่านี้โดยอัตโนมัติ เรามีความเสี่ยงสูง ที่ Robust Intelligence เราเรียกสิ่งนี้ว่า "ความเสี่ยงของ AI" และภารกิจของเราในบริษัทคือการกำจัดความเสี่ยงของ AI

ข้อผิดพลาดที่เงียบคือข้อผิดพลาดของโมเดล AI ซึ่งโมเดล AI ได้รับอินพุตและสร้างการคาดคะเนหรือการตัดสินใจที่ผิดพลาดหรือมีอคติเป็นเอาต์พุต โดยรวมแล้ว ทุกอย่างในระบบดูโอเค เนื่องจากโมเดล AI กำลังทำในสิ่งที่ควรทำจากมุมมองการทำงาน แต่การทำนายหรือการตัดสินใจนั้นผิดพลาด ข้อผิดพลาดเหล่านี้จะไม่เกิดขึ้นเนื่องจากระบบไม่ทราบว่ามีข้อผิดพลาด สิ่งนี้อาจเลวร้ายยิ่งกว่ากรณีที่โมเดล AI ไม่สร้างผลลัพธ์ เนื่องจากองค์กรอาจใช้เวลานานกว่าจะตระหนักว่าระบบ AI ของตนมีข้อบกพร่อง จากนั้นความเสี่ยงของ AI จะกลายเป็นความล้มเหลวของ AI ซึ่งอาจส่งผลร้ายแรง

Robust Intelligence ได้ออกแบบ AI Firewall ซึ่งเป็นแนวคิดที่ก่อนหน้านี้ถือว่าเป็นไปไม่ได้ ทำไมสิ่งนี้จึงเป็นความท้าทายทางเทคนิค

เหตุผลหนึ่งที่ไฟร์วอลล์ AI เป็นสิ่งที่ท้าทายก็เพราะว่ามันขัดกับกระบวนทัศน์ที่ชุมชน ML มี กระบวนทัศน์ก่อนหน้าของชุมชน ML คือเพื่อกำจัดข้อผิดพลาด จำเป็นต้องป้อนข้อมูลเพิ่มเติม รวมถึงข้อมูลที่ไม่ดีไปยังโมเดล เมื่อทำเช่นนั้น นางแบบจะฝึกฝนตัวเองและเรียนรู้วิธีแก้ไขข้อผิดพลาดด้วยตนเอง ปัญหาของวิธีการดังกล่าวคือทำให้ความแม่นยำของแบบจำลองลดลงอย่างมาก ตัวอย่างเช่น ผลลัพธ์ที่รู้จักกันดีที่สุดสำหรับรูปภาพ ทำให้ความแม่นยำของโมเดล AI ลดลงจาก 98.5% เป็นประมาณ 37%

ไฟร์วอลล์ AI นำเสนอโซลูชันที่แตกต่างออกไป เราแยกปัญหาในการระบุข้อผิดพลาดออกจากบทบาทของการสร้างการคาดคะเน ซึ่งหมายความว่าไฟร์วอลล์สามารถมุ่งเน้นไปที่งานเฉพาะอย่างหนึ่ง: กำหนดว่าดาต้าพอยต์จะสร้างการคาดคะเนที่ผิดพลาดหรือไม่

นี่เป็นความท้าทายในตัวเองเนื่องจากความยากในการทำนายจุดข้อมูลเดียว มีเหตุผลมากมายที่ทำให้โมเดลเกิดข้อผิดพลาด ดังนั้นการสร้างเทคโนโลยีที่สามารถคาดการณ์ข้อผิดพลาดเหล่านี้ได้จึงไม่ใช่เรื่องง่าย เราโชคดีมากที่มีวิศวกรที่เราทำ

ระบบจะช่วยป้องกัน AI bias ได้อย่างไร?

ความเอนเอียงของโมเดลมาจากความแตกต่างระหว่างข้อมูลที่โมเดลได้รับการฝึกอบรมและข้อมูลที่ใช้ในการคาดการณ์ ย้อนกลับไปที่ความเสี่ยงของ AI ความลำเอียงเป็นปัญหาหลักที่เกิดจากข้อผิดพลาดที่ไม่โต้ตอบ ตัวอย่างเช่น นี่เป็นปัญหาที่เกิดขึ้นกับประชากรที่มีบทบาทต่ำ โมเดลอาจมีอคติเนื่องจากได้เห็นข้อมูลจากประชากรนั้นน้อยลง ซึ่งจะส่งผลกระทบอย่างมากต่อประสิทธิภาพของโมเดลนั้นและความแม่นยำของการคาดคะเน ไฟร์วอลล์ AI สามารถแจ้งเตือนองค์กรเกี่ยวกับความคลาดเคลื่อนของข้อมูลเหล่านี้ และช่วยให้โมเดลตัดสินใจได้อย่างถูกต้อง

ความเสี่ยงอื่นๆ ต่อองค์กรที่ไฟร์วอลล์ AI ช่วยป้องกันมีอะไรบ้าง

บริษัทใดก็ตามที่ใช้ AI เพื่อทำการตัดสินใจโดยอัตโนมัติ โดยเฉพาะการตัดสินใจที่สำคัญ จะทำให้เกิดความเสี่ยงโดยอัตโนมัติ ข้อมูลที่ไม่ถูกต้องอาจเป็นเพียงการป้อนเลขศูนย์แทนที่จะเป็นหนึ่งเดียวและยังคงส่งผลตามมาที่สำคัญ ไม่ว่าความเสี่ยงจะเป็นการคาดการณ์ทางการแพทย์ที่ไม่ถูกต้องหรือการคาดการณ์ที่ผิดพลาดเกี่ยวกับการกู้ยืม AI Firewall ช่วยให้องค์กรต่างๆ ป้องกันความเสี่ยงได้ทั้งหมด

มีอะไรอีกบ้างที่คุณต้องการแบ่งปันเกี่ยวกับ Robust Intelligence

Robust Intelligence กำลังเติบโตอย่างรวดเร็ว และเรากำลังได้รับผู้สมัครที่ยอดเยี่ยมจำนวนมากเพื่อสมัครงานในตำแหน่งต่างๆ แต่สิ่งที่ฉันต้องการเน้นย้ำสำหรับคนที่กำลังพิจารณาที่จะสมัครก็คือ คุณสมบัติที่สำคัญที่สุดที่เรามองหาในตัวผู้สมัครคือความหลงใหลในภารกิจของพวกเขา เราได้พบกับผู้สมัครจำนวนมากที่มีความแข็งแกร่งทางเทคนิค ดังนั้นจึงต้องทำความเข้าใจจริงๆ ว่าพวกเขามีความกระตือรือร้นอย่างแท้จริงในการขจัดความเสี่ยงของ AI เพื่อทำให้โลกนี้ปลอดภัยและน่าอยู่ขึ้นหรือไม่

ในโลกที่เรากำลังมุ่งหน้าไป การตัดสินใจหลายอย่างที่มนุษย์กำลังทำอยู่จะเป็นไปโดยอัตโนมัติ ไม่ว่าเราจะชอบหรือไม่นั่นคือข้อเท็จจริง ด้วยเหตุนี้ พวกเราทุกคนที่ Robust Intelligence จึงต้องการให้การตัดสินใจโดยอัตโนมัติดำเนินไปอย่างมีความรับผิดชอบ ดังนั้น ใครก็ตามที่ตื่นเต้นกับการสร้างผลกระทบ และเข้าใจวิธีที่สิ่งนี้สามารถส่งผลกระทบต่อชีวิตของผู้คน คือผู้สมัครที่เรากำลังมองหาเพื่อเข้าร่วมกับ Robust Intelligence เรากำลังมองหาความหลงใหลนั้น เรากำลังมองหาผู้ที่จะสร้างเทคโนโลยีนี้ที่คนทั้งโลกจะใช้

ขอบคุณสำหรับบทสัมภาษณ์ที่ยอดเยี่ยม ฉันสนุกกับการเรียนรู้เกี่ยวกับมุมมองของคุณเกี่ยวกับการป้องกันอคติของ AI และความต้องการไฟร์วอลล์ AI ผู้อ่านที่ต้องการเรียนรู้เพิ่มเติมควรไปที่ สติปัญญาที่แข็งแกร่ง

ผู้ร่วมก่อตั้ง unite.AI และเป็นสมาชิกของ สภาเทคโนโลยี Forbes อองตวนเป็นอ ผู้เป็นเจ้ายังมาไม่ถึง ผู้หลงใหลเกี่ยวกับอนาคตของ AI และหุ่นยนต์

เขายังเป็นผู้ก่อตั้ง หลักทรัพย์.ioซึ่งเป็นเว็บไซต์ที่เน้นการลงทุนด้านเทคโนโลยีก่อกวน