สัมภาษณ์
Yotam Oren, CEO & Cofounder of Mona Labs – Interview Series

Yotam Oren, เป็น CEO & Cofounder ของ Mona Labs, แพลตฟอร์มที่ช่วยให้ธุรกิจสามารถเปลี่ยนความคิดริเริ่ม AI จากการทดลองในห้องปฏิบัติการเป็นธุรกิจที่สามารถขยายขนาดได้โดยการทำความเข้าใจว่าโมเดล ML มีพฤติกรรมอย่างไรในกระบวนการทางธุรกิจและแอปพลิเคชันจริง
Mona วิเคราะห์พฤติกรรมของโมเดลการเรียนรู้ของเครื่องจักรของคุณโดยอัตโนมัติข้ามเซ็กเมนต์ข้อมูลที่ได้รับการคุ้มครองและในบริบทของฟังก์ชันทางธุรกิจ เพื่อตรวจจับ AI ที่มีอคติได้ Mona มอบความสามารถในการสร้างรายงานความยุติธรรมที่สมบูรณ์แบบซึ่งตรงตามมาตรฐานและข้อบังคับของอุตสาหกรรม และให้ความมั่นใจว่าแอปพลิเคชัน AI มีความถูกต้องและไม่มีอคติ
สิ่งใดที่ดึงดูดคุณเข้าสู่วิชาวิทยาการคอมพิวเตอร์?
วิทยาการคอมพิวเตอร์เป็นเส้นทางอาชีพที่ได้รับความนิยมในครอบครัวของฉัน ดังนั้นมันจึงอยู่ในใจของฉันเสมอว่าเป็นตัวเลือกที่เป็นไปได้ แน่นอนว่าวัฒนธรรมอิสราเอลมีความชื่นชอบเทคโนโลยีสูง และฉันรู้สึกว่าวิทยาการคอมพิวเตอร์จะให้โอกาสฉันในการเติบโตและบรรลุเป้าหมาย
แม้ว่าจะเป็นเช่นนั้น แต่มันก็กลายเป็นความหลงใหลส่วนตัวเมื่อฉันเข้ามหาวิทยาลัย ฉันไม่ใช่เด็กที่เริ่มเขียนโค้ดตั้งแต่ชั้นมัธยมต้น ในช่วงวัยรุ่นของฉัน ฉันเล่นบาสเก็ตบอลมากกว่าให้ความสนใจกับคอมพิวเตอร์ หลังจากจบมัธยมปลาย ฉันใช้เวลาเกือบ 5 ปีในกองทัพในบทบาทการนำทีมปฏิบัติการ/รบ ดังนั้นใน某种程度上 ฉันเริ่มเรียนรู้เกี่ยวกับวิทยาการคอมพิวเตอร์เมื่อฉันต้องเลือกสาขาวิชาในมหาวิทยาลัย สิ่งที่ดึงดูดความสนใจของฉันทันทีคือวิทยาการคอมพิวเตอร์รวมถึงการแก้ปัญหาและการเรียนรู้ภาษา (หรือภาษา) สองสิ่งที่ฉันสนใจเป็นพิเศษ ตั้งแต่นั้นมา ฉันก็หลงใหลแล้ว
ระหว่างปี 2006 ถึง 2008 คุณทำงานเกี่ยวกับการทำแผนที่และนำทางสำหรับสตาร์ทอัพขนาดเล็ก สิ่งที่คุณได้รับจากยุคนั้นคืออะไร?
บทบาทของฉันที่ Telmap คือการสร้างเครื่องมือค้นหาบนแผนที่และข้อมูลตำแหน่ง
ในช่วงเวลานั้นเป็นช่วงแรกๆ ของ “ข้อมูลขนาดใหญ่” ในองค์กร เราไม่ได้เรียกมันว่า “ข้อมูลขนาดใหญ่” แต่เรากำลังรวบรวมชุดข้อมูลขนาดใหญ่และพยายามดึงข้อมูลเชิงลึกที่มีผลกระทบและเกี่ยวข้องมากที่สุดเพื่อแสดงให้ผู้ใช้ปลายทางเห็น
การรับรู้ที่น่าประหลาดใจที่ฉันมีคือบริษัทต่างๆ (รวมถึงเรา) ใช้ข้อมูลของตนเองเพียงเล็กน้อย (ไม่พูดถึงข้อมูลภายนอกที่มีอยู่แล้ว) มีศักยภาพมากมายสำหรับการมองเห็นใหม่ๆ, กระบวนการทำงานที่ดีขึ้น และประสบการณ์ที่ดีขึ้น
สิ่งที่ได้รับอีกอย่างหนึ่งคือการได้รับข้อมูลมากขึ้นขึ้นอยู่กับการมีสถาปัตยกรรมที่ดีขึ้น, อินฟราสตรัคเจอร์ที่ดีขึ้น และอื่นๆ
คุณสามารถแบ่งปันเรื่องราวเกิดของ Mona Labs ได้หรือไม่?
ทั้งสามคนของเรา ผู้ร่วมก่อตั้ง ได้ทำงานเกี่ยวกับผลิตภัณฑ์ข้อมูลตลอดอาชีพการงานของเรา
Nemo, ซึ่งเป็น Chief Technology Officer, เป็นเพื่อนร่วมชั้นเรียนและเพื่อนร่วมงานของฉัน และเป็นหนึ่งในพนักงานคนแรกของ Google Tel Aviv เขาเริ่มผลิตภัณฑ์หนึ่งที่ Google เรียกว่า Google Trends ซึ่งมีการวิเคราะห์ขั้นสูงและ Machine Learning บนข้อมูลการค้นหา Itai, ผู้ร่วมก่อตั้งและ Chief Product Officer, เป็นสมาชิกในทีมของ Nemo ที่ Google (และฉันพบกับเขาผ่าน Nemo) ทั้งสองคนมีความไม่พอใจที่ระบบ AI ถูกปล่อยทิ้งไว้โดยไม่มีการตรวจสอบหลังจากการพัฒนาและทดสอบเบื้องต้น แม้ว่าจะมีความยากในการทดสอบระบบเหล่านี้ก่อนการผลิต แต่ทีมงานก็ไม่ทราบว่าโมเดลการทำนายของพวกเขาทำงานได้ดีเพียงใดเมื่อเวลาผ่านไป นอกจากนี้ดูเหมือนว่าทีมงานจะไม่ได้รับข้อเสนอแนะเกี่ยวกับระบบ AI จนกว่าสิ่งต่างๆ จะไปไม่ดีและทีมพัฒนาจะถูกเรียกให้ “ดับไฟ” เพื่อแก้ไขปัญหา
ในช่วงเวลาเดียวกัน ฉันเป็นที่ปรึกษาที่ McKinsey & Co และหนึ่งในอุปสรรคที่ใหญ่ที่สุดในการขยายโปรแกรม AI และ Big Data ในองค์กรขนาดใหญ่คือการขาดความเชื่อมั่นของฝ่ายธุรกิจที่มีต่อโปรแกรมเหล่านั้น
เรื่องราวทั่วไปที่ชัดเจนสำหรับ Nemo, Itai และฉันในระหว่างการสนทนา คืออุตสาหกรรมต้องการโครงสร้างพื้นฐานเพื่อตรวจสอบระบบ AI/ML ในการผลิต เราได้สร้างวิสัยทัศน์เพื่อให้ความสามารถในการมองเห็นนี้เพื่อเพิ่มความเชื่อมั่นของฝ่ายธุรกิจ และเพื่อให้ทีม AI มีเครื่องมือในการจัดการระบบของตนได้อย่างมีประสิทธิภาพ
และนั่นคือเมื่อ Mona ก่อตั้งขึ้น
ปัญหาปัจจุบันเกี่ยวกับการขาดความโปร่งใสของ AI คืออะไร?
ในหลายอุตสาหกรรม องค์กรต่างๆ đãใช้เงินหลายสิบล้านเหรียญสหรัฐฯ ในโปรแกรม AI ของตนเอง และได้เห็นความสำเร็จเบื้องต้นในห้องปฏิบัติการและในการใช้งานขนาดเล็ก แต่การขยายขนาดและการบรรลุการนำไปใช้อย่างกว้างขวางและการทำให้ธุรกิจเชื่อมั่นใน AI เป็นความท้าทายที่ยิ่งใหญ่สำหรับทุกคน
ทำไมถึงเกิดขึ้น? มันเริ่มต้นจากข้อเท็จจริงที่ว่าการวิจัยที่ดีไม่ได้แปลเป็นผลิตภัณฑ์ที่ดีโดยอัตโนมัติ (ลูกค้าคนหนึ่งบอกเราว่า “โมเดล ML เหมือนรถยนต์ เมื่อออกจากห้องปฏิบัติการ มันจะเสียค่า 20% ของมูลค่า”) ผลิตภัณฑ์ที่ดีมีระบบสนับสนุน มีเครื่องมือและกระบวนการเพื่อให้แน่ใจว่าคุณภาพยังคงอยู่ตลอดเวลา และปัญหาได้รับการตรวจจับและแก้ไขอย่างมีประสิทธิภาพ ผลิตภัณฑ์ที่ดียังมีวงจรการให้ข้อเสนอแนะอย่างต่อเนื่อง มีวงจรการปรับปรุงและแผนการดำเนินงาน ดังนั้นผลิตภัณฑ์ที่ดีจึงต้องการความโปร่งใสในการทำงานอย่างลึกซึ้ง
เมื่อไม่มีความโปร่งใส คุณจะพบกับ:
- ปัญหาที่ซ่อนอยู่เป็นเวลานานแล้วจึงปรากฏตัวขึ้นและก่อให้เกิด “การดับเพลิง”
- การสอบสวนและการบรรเทาทุกข์ที่ใช้เวลานานและทำด้วยมือ
- โปรแกรม AI ที่ไม่ได้รับความเชื่อมั่นจากผู้ใช้และผู้สนับสนุนธุรกิจ และในที่สุดก็ล้มเหลวในการขยายขนาด
ความท้าทายในการทำให้โมเดลการทำนายมีความโปร่งใสและเชื่อถือได้คืออะไร?
ความโปร่งใสเป็นปัจจัยสำคัญในการสร้างความเชื่อมั่น ความโปร่งใสสามารถมาในหลายรูปแบบ มีความโปร่งใสในการทำนายเดียวซึ่งอาจรวมถึงการแสดงระดับความมั่นใจให้กับผู้ใช้ หรือการให้คำอธิบาย/เหตุผลในการทำนาย ความโปร่งใสในการทำนายเดียวมุ่งเน้นไปที่ช่วยให้ผู้ใช้รู้สึกสบายใจกับการทำนาย และมีความโปร่งใสโดยรวมซึ่งอาจรวมถึงข้อมูลเกี่ยวกับความแม่นยำในการทำนาย ผลลัพธ์ที่ไม่คาดคิด และปัญหาที่อาจเกิดขึ้น ความโปร่งใสโดยรวมจำเป็นต่อทีม AI
ส่วนที่ท้าทายที่สุดของความโปร่งใสโดยรวมคือการตรวจจับปัญหาเร็วๆ นี้ และแจ้งเตือนสมาชิกในทีมที่เกี่ยวข้องเพื่อให้พวกเขาสามารถดำเนินการแก้ไขก่อนที่จะเกิดภัยพิบัติ
ทำไมการตรวจจับปัญหาเร็วๆ นี้จึงท้าทาย:
- ปัญหาหลายอย่างเริ่มต้นจากขนาดเล็กและค่อยๆ เพิ่มขึ้น ก่อนที่จะปรากฏตัวขึ้นอย่างเต็มที่
- ปัญหาหลายอย่างเริ่มต้นจากปัจจัยภายนอกหรือไม่สามารถควบคุมได้ เช่น แหล่งข้อมูล
- มีหลายวิธีในการ “แบ่งโลก” และการค้นหาปัญหาในพื้นที่เล็กๆ อาจทำให้เกิดเสียงรบกวน (การเหนื่อยล้าจากการเตือน) เมื่อทำในแนวทางที่ง่ายๆ
อีกด้านหนึ่งของความท้าทายในการให้ความโปร่งใสคือการแพร่กระจายของกรณีการใช้งาน AI ซึ่งทำให้การเข้าใกล้ที่เหมาะกับทุกคนเป็นไปไม่ได้ กรณีการใช้งาน AI แต่ละกรณีอาจมีโครงสร้างข้อมูลที่แตกต่างกัน, วงจรธุรกิจที่แตกต่างกัน, เมตริกความสำเร็จที่แตกต่างกัน และแม้แต่แนวทางทางเทคนิคและスタ็กที่แตกต่างกัน
ดังนั้นจึงเป็นงานที่ยิ่งใหญ่ แต่ความโปร่งใสเป็นเรื่องพื้นฐานที่สุดต่อความสำเร็จของโปรแกรม AI ดังนั้นคุณจึงต้องทำมัน
คุณสามารถแบ่งปันรายละเอียดเกี่ยวกับโซลูชันสำหรับโมเดล NLU / NLP และ Chatbots ได้หรือไม่?
AI การสนทนาเป็นหนึ่งในแนวตั้งหลักของ Mona เรารู้สึกภูมิใจที่จะสนับสนุนบริษัทที่มีความคิดสร้างสรรค์พร้อมกรณีการใช้งาน AI การสนทนาหลากหลาย รวมถึงโมเดลภาษา, Chatbots และอื่นๆ
ปัจจัยร่วมที่พบในกรณีการใช้งานเหล่านี้คือโมเดลเหล่านี้ทำงานใกล้กับลูกค้า (และบางครั้งเห็นได้ชัดเจน) ดังนั้นความเสี่ยงของการทำงานที่ไม่สอดคล้องกันหรือพฤติกรรมที่ไม่ดีจึงสูงกว่า จึงเป็นสิ่งสำคัญสำหรับทีม AI การสนทนาในการทำความเข้าใจพฤติกรรมของระบบในระดับละเอียด ซึ่งเป็นพื้นที่ที่ Mona มีความแข็งแกร่ง
สิ่งที่โซลูชันของ Mona ทำได้อย่างไม่เหมือนใครคือการค้นหาและจัดกลุ่มการสนทนาและค้นหาพื้นที่ที่โมเดล (หรือบอท) มีพฤติกรรมที่ไม่เหมาะสม ซึ่งช่วยให้ทีม AI การสนทนาตรวจพบปัญหาเร็วๆ นี้และก่อนที่ลูกค้าจะสังเกตเห็น ความสามารถนี้เป็นตัวขับเคลื่อนการตัดสินใจที่สำคัญสำหรับทีม AI การสนทนาในการเลือกโซลูชันการตรวจสอบ
เพื่อสรุป Mona มีโซลูชันแบบ end-to-end สำหรับการตรวจสอบ AI การสนทนา มันเริ่มต้นด้วยการรับประกันว่ามีแหล่งข้อมูลเดียวสำหรับการทำงานของระบบตลอดเวลา และดำเนินการติดตามตัวชี้วัดประสิทธิภาพหลักอย่างต่อเนื่อง และให้ข้อเสนอแนะเชิงรุกเกี่ยวกับพฤติกรรมที่ไม่เหมาะสม – ช่วยให้ทีมสามารถดำเนินการแก้ไขเชิงรุกและประสิทธิภาพ
คุณสามารถให้รายละเอียดเกี่ยวกับเครื่องยนต์ข้อเสนอแนะของ Mona ได้หรือไม่?
แน่นอน เราเริ่มต้นด้วยแรงจูงใจ วัตถุประสงค์ของเครื่องยนต์ข้อเสนอแนะคือการแสดงข้อผิดพลาดให้กับผู้ใช้พร้อมข้อมูลบริบทที่เหมาะสมและไม่ทำให้เกิดเสียงรบกวนหรือนำไปสู่การเหนื่อยล้าจากการเตือน
เครื่องยนต์ข้อเสนอแนะเป็นกระบวนการวิเคราะห์ที่ไม่เหมือนใคร ในกระบวนการนี้ เครื่องยนต์จะค้นหาปัญหาในเซ็กเมนต์ทั้งหมดของข้อมูลเพื่อตรวจจับปัญหาเร็วๆ นี้เมื่อพวกมันยังคง “เล็ก” และก่อนที่จะส่งผลกระทบต่อชุดข้อมูลทั้งหมดและ KPI ทางธุรกิจที่อยู่ด้านล่าง จากนั้นจะใช้อัลกอริทึมที่เป็นเอกลักษณ์ในการตรวจจับเหตุผลรากของปัญหาและทำให้แน่ใจว่าปัญหาแต่ละอย่างจะถูกเตือนเพียงครั้งเดียวเพื่อหลีกเลี่ยงเสียงรบกวน
เครื่องยนต์ข้อเสนอแนะสามารถปรับแต่งได้อย่างมากผ่านการกำหนดค่าแบบ no-code/low-code ของ Mona ความสามารถในการปรับแต่งเครื่องยนต์ทำให้ Mona เป็นโซลูชันที่ยืดหยุ่นที่สุดในตลาด โดยครอบคลุมกรณีการใช้งานที่หลากหลาย (เช่น การประมวลผลแบบ batch และ streaming, ด้วยหรือไม่มีการให้ข้อเสนอแนะ/ข้อมูลพื้นฐาน, ข้ามเวอร์ชันโมเดลหรือระหว่างการฝึกอบรมและอนุมาน, และอื่นๆ)
สุดท้าย เครื่องยนต์ข้อเสนอแนะนี้ได้รับการสนับสนุนจากแดชบอร์ดการแสดงภาพ โดยที่ข้อเสนอแนะสามารถดูและใช้เครื่องมือในการสืบสวนเพื่อช่วยในการวิเคราะห์เหตุผลรากและสำรวจข้อมูลบริบทเพิ่มเติม เครื่องยนต์ข้อเสนอแนะยังรวมเข้ากับเครื่องยนต์การแจ้งเตือนซึ่งช่วยให้สามารถแจ้งข้อเสนอแนะไปยังสภาพแวดล้อมการทำงานของผู้ใช้ รวมถึงอีเมล, แพลตฟอร์มการทำงานร่วมกัน และอื่นๆ
เมื่อวันที่ 31 มกราคม Mona เปิดเผย โซลูชันความยุติธรรม AI ใหม่ คุณสามารถแบ่งปันรายละเอียดเกี่ยวกับคุณลักษณะนี้ได้หรือไม่?
ความยุติธรรม AI คือการรับรองว่าแอลกอริทึมและระบบ AI โดยทั่วไปตัดสินใจที่ไม่มีอคติและยุติธรรม การแก้ไขและป้องกันอคติในระบบ AI เป็นสิ่งสำคัญ เนื่องจากอาจส่งผลกระทบอย่างมีนัยสำคัญต่อชีวิตประจำวันของคน โดยที่ AI จะมีบทบาทมากขึ้นในการขับรถอัตโนมัติ, การตรวจจับโรคที่แม่นยำยิ่งขึ้น, การปรับปรุงความเข้าใจของเราเกี่ยวกับโลก และแม้กระทั่งการสร้างสรรค์ศิลปะ หากเราไม่สามารถไว้วางใจได้ว่ามันจะยุติธรรมและไม่มีอคติ แล้วเราจะอนุญาตให้มันแพร่กระจายต่อไปได้อย่างไร?
หนึ่งในสาเหตุหลักของอคติใน AI คือความสามารถของข้อมูลการฝึกอบรมในการแสดงถึงโลกแห่งความเป็นจริงอย่างเต็มที่ ซึ่งอาจเกิดจากการเลือกปฏิบัติในอดีต, การแสดงออกที่ไม่เพียงพอของกลุ่มบางกลุ่ม หรือแม้กระทั่งการบิดเบือนข้อมูลอย่างตั้งใจ ตัวอย่างเช่น ระบบการรู้จับใบหน้าที่ฝึกอบรมจากบุคคลที่มีผิวสีที่มีคนผิวขาวเป็นหลักมีแนวโน้มที่จะมีอัตราความผิดพลาดสูงในการรู้จักบุคคลที่มีผิวสีเข้ม ในทำนองเดียวกัน โมเดลภาษาที่ฝึกอบรมจากข้อมูลข้อความจากแหล่งที่มาแคบๆ อาจพัฒนาให้มีอคติหากข้อมูลนั้นมีความเอนเอียงไปในมุมมองของโลกที่เฉพาะเจาะจง
โซลูชันความยุติธรรม AI ของ Mona ให้ความมั่นใจแก่ทีม AI และทีมธุรกิจว่า AI ของพวกเขานั้นไม่มีอคติ ในภาคส่วนที่มีการควบคุม โซลูชันของ Mona ช่วยให้ทีมเตรียมพร้อมสำหรับการปฏิบัติตามข้อกำหนด
โซลูชันความยุติธรรมของ Mona มีเอกลักษณ์เฉพาะตัวเนื่องจากตั้งอยู่บนแพลตฟอร์ม Mona – สะพานเชื่อมระหว่างข้อมูล AI และโมเดลกับผลกระทบในโลกแห่งความเป็นจริง Mona ตรวจสอบทุกส่วนของกระบวนการทางธุรกิจที่โมเดล AI ให้บริการในระหว่างการผลิตเพื่อสร้างความสัมพันธ์ระหว่างข้อมูลการฝึกอบรม, พฤติกรรมของโมเดล และผลลัพธ์จริงในโลกแห่งความเป็นจริงเพื่อให้การประเมินความยุติธรรมที่ครอบคลุมที่สุด
ที่สอง มันมีเครื่องยนต์เชิงวิเคราะห์ที่ไม่เหมือนใครซึ่งช่วยให้สามารถแบ่งเซ็กเมนต์ข้อมูลได้อย่างยืดหยุ่นเพื่อควบคุมพารามิเตอร์ที่เกี่ยวข้อง ซึ่งช่วยให้สามารถประเมินความสัมพันธ์ได้อย่างแม่นยำในบริบทที่ถูกต้อง โดยหลีกเลี่ยง Simpson’s Paradox และให้คะแนนอคติที่แท้จริงสำหรับเมตริกประสิทธิภาพใดๆ และคุณลักษณะที่ได้รับการคุ้มครองใดๆ
โดยรวมแล้ว ฉันจะบอกว่า Mona เป็นองค์ประกอบพื้นฐานสำหรับทีมที่ต้องสร้างและขยาย AI ที่มีความรับผิดชอบ
วิสัยทัศน์ของคุณสำหรับอนาคตของ AI คืออะไร?
เป็นคำถามที่ใหญ่มาก
ฉันคิดว่ามันไม่ยากที่จะคาดการณ์ว่า AI จะยังคงเติบโตในด้านการใช้งานและผลกระทบต่ออุตสาหกรรมและชีวิตประจำวันของคน แต่มันยากที่จะคาดการณ์รายละเอียดและครอบคลุมทุกกรณีการใช้งานและผลกระทบของ AI ในอนาคต เนื่องจากไม่มีใครรู้จักเพียงพอในการวาดภาพนั้นได้อย่างน่าเชื่อถือ
อย่างไรก็ตาม สิ่งที่เรารู้อย่างแน่นอนคือ AI จะอยู่ในมือของคนมากขึ้นและเสิร์ฟวัตถุประสงค์มากขึ้น ความต้องการการกำกับดูแลและความโปร่งใสจะเพิ่มขึ้นอย่างมาก
ความโปร่งใสที่แท้จริงใน AI และวิธีการทำงานของมันจะเล่นสองบทบาทหลัก ประการแรก มันจะช่วยให้คนมั่นใจและลดความต้านทานต่อการนำไปใช้มากขึ้น ประการที่สอง มันจะช่วยให้ผู้ดำเนินการ AI ตรวจสอบให้แน่ใจว่ามันไม่หลุดออกจากมือ
ขอขอบคุณสำหรับการสัมภาษณ์ที่ยอดเยี่ยม ผู้อ่านสามารถเยี่ยมชม Mona Labs เพื่อเรียนรู้เพิ่มเติม












