ต้นขั้ว Yotam Oren ซีอีโอและผู้ร่วมก่อตั้ง Mona Labs - ซีรี่ส์สัมภาษณ์ - Unite.AI
เชื่อมต่อกับเรา

บทสัมภาษณ์

Yotam Oren ซีอีโอและผู้ร่วมก่อตั้ง Mona Labs – ซีรีส์สัมภาษณ์

mm

การตีพิมพ์

 on

Yotam Oren เป็น CEO และผู้ร่วมก่อตั้งของ โมนาแล็บส์ซึ่งเป็นแพลตฟอร์มที่ช่วยให้องค์กรสามารถเปลี่ยนความคิดริเริ่ม AI จากการทดลองในห้องปฏิบัติการเป็นการดำเนินธุรกิจที่ปรับขนาดได้โดยการทำความเข้าใจอย่างแท้จริงว่าโมเดล ML ทำงานอย่างไรในกระบวนการทางธุรกิจและแอปพลิเคชันจริง

Mona วิเคราะห์พฤติกรรมของโมเดลการเรียนรู้ของเครื่องของคุณโดยอัตโนมัติในกลุ่มข้อมูลที่ได้รับการป้องกันและในบริบทของฟังก์ชันทางธุรกิจ เพื่อตรวจจับอคติของ AI ที่อาจเกิดขึ้น Mona นำเสนอความสามารถในการสร้างรายงานความเป็นธรรมที่สมบูรณ์ซึ่งตรงตามมาตรฐานและข้อบังคับอุตสาหกรรม และให้ความมั่นใจว่าแอปพลิเคชัน AI นั้นเป็นไปตามข้อกำหนดและปราศจากอคติใดๆ

อะไรดึงดูดคุณให้สนใจวิทยาการคอมพิวเตอร์ในตอนแรก?

วิทยาการคอมพิวเตอร์เป็นเส้นทางอาชีพที่ได้รับความนิยมในครอบครัวของฉัน ดังนั้นมันจึงเป็นตัวเลือกที่ใช่เสมอในความคิดของฉัน แน่นอน วัฒนธรรมของอิสราเอลมีความเป็นมืออาชีพมาก เราเฉลิมฉลองให้กับนักเทคโนโลยีที่เป็นนวัตกรรมใหม่ และฉันรับรู้มาตลอดว่า CS จะเสนอทางวิ่งสำหรับการเติบโตและความสำเร็จให้ฉัน

ถึงกระนั้นก็เป็นความหลงใหลส่วนตัวเมื่อฉันถึงวัยเข้ามหาวิทยาลัย ฉันไม่ใช่เด็กที่เริ่มเขียนโค้ดตอนมัธยมต้น ในวัยเยาว์ ฉันยุ่งเกินกว่าจะเล่นบาสเก็ตบอลเพื่อสนใจคอมพิวเตอร์ หลังจบมัธยมปลาย ฉันใช้เวลาเกือบ 5 ปีในกองทัพ ในบทบาทผู้นำด้านการปฏิบัติการ/การรบ ในทางหนึ่ง ฉันเริ่มเรียนรู้เกี่ยวกับวิทยาการคอมพิวเตอร์มากขึ้นเมื่อจำเป็นต้องเลือกวิชาเอกในมหาวิทยาลัยเท่านั้น สิ่งที่ดึงดูดความสนใจของฉันในทันทีคือวิทยาการคอมพิวเตอร์ผสมผสานการแก้ปัญหาและการเรียนรู้ภาษา (หรือภาษา) สองสิ่งที่ฉันสนใจเป็นพิเศษ ตั้งแต่นั้นมาฉันก็ติดงอมแงม

ตั้งแต่ปี 2006 ถึง 2008 คุณทำงานเกี่ยวกับการทำแผนที่และการนำทางสำหรับบริษัทสตาร์ทอัพเล็กๆ สิ่งสำคัญที่คุณได้จากยุคนี้คืออะไร

บทบาทของฉันที่ Telmap คือการสร้างเสิร์ชเอ็นจิ้นบนข้อมูลแผนที่และตำแหน่งที่ตั้ง

นี่เป็นวันแรกของ "ข้อมูลขนาดใหญ่" ในองค์กร เราไม่ได้เรียกสิ่งนั้นด้วยซ้ำ แต่เรากำลังได้รับชุดข้อมูลจำนวนมหาศาลและพยายามดึงข้อมูลเชิงลึกที่มีผลกระทบและเกี่ยวข้องมากที่สุดเพื่อแสดงต่อผู้ใช้ปลายทางของเรา

สิ่งหนึ่งที่ฉันตระหนักได้อย่างชัดเจนก็คือ บริษัทต่างๆ (รวมถึงเรา) ใช้ข้อมูลของตนน้อยมาก (ไม่ต้องพูดถึงข้อมูลภายนอกที่เปิดเผยต่อสาธารณะ) มีศักยภาพมากมายสำหรับข้อมูลเชิงลึกใหม่ กระบวนการและประสบการณ์ที่ดีขึ้น

ข้อดีอีกอย่างคือความสามารถในการรับข้อมูลของเราได้มากขึ้นนั้นขึ้นอยู่กับการมีสถาปัตยกรรมที่ดีขึ้น โครงสร้างพื้นฐานที่ดีขึ้น และอื่นๆ

คุณช่วยแบ่งปันเรื่องราวต้นกำเนิดเบื้องหลัง Mona Labs ได้ไหม

ผู้ร่วมก่อตั้งทั้งสามคนของเราทำงานเกี่ยวกับผลิตภัณฑ์ข้อมูลตลอดอาชีพการงานของเรา

Nemo หัวหน้าเจ้าหน้าที่ฝ่ายเทคโนโลยี เป็นเพื่อนสมัยเรียนและเพื่อนร่วมชั้นของฉัน และเป็นหนึ่งในพนักงานกลุ่มแรกๆ ของ Google Tel Aviv เขาเริ่มผลิตภัณฑ์ที่เรียกว่า Google Trends ซึ่งมีการวิเคราะห์ขั้นสูงและการเรียนรู้ของเครื่องมากมายโดยอิงจากข้อมูลของเครื่องมือค้นหา Itai ผู้ร่วมก่อตั้งและประธานเจ้าหน้าที่ฝ่ายผลิตภัณฑ์คนอื่นๆ อยู่ในทีมของ Nemo ที่ Google (และฉันกับเขาพบกันผ่าน Nemo) ทั้งสองคนรู้สึกผิดหวังเสมอที่ระบบที่ขับเคลื่อนด้วย AI ไม่ได้รับการตรวจสอบหลังจากการพัฒนาและทดสอบครั้งแรก แม้จะมีความยุ่งยากในการทดสอบระบบเหล่านี้อย่างถูกต้องก่อนการผลิต แต่ทีมงานก็ยังไม่รู้ว่าแบบจำลองการคาดการณ์ของพวกเขาทำงานได้ดีเพียงใดเมื่อเวลาผ่านไป นอกจากนี้ ดูเหมือนว่าครั้งเดียวที่พวกเขาจะได้ยินคำติชมใดๆ เกี่ยวกับระบบ AI คือเมื่อสิ่งต่างๆ ดำเนินไปอย่างย่ำแย่ และทีมพัฒนาถูกเรียกให้ "ฝึกซ้อมดับเพลิง" เพื่อแก้ไขปัญหาภัยพิบัติ

ในเวลาเดียวกัน ผมเป็นที่ปรึกษาที่ McKinsey & Co และอุปสรรคที่ใหญ่ที่สุดประการหนึ่งที่ผมเห็นในการขยายขนาดโปรแกรม AI และ Big Data ในองค์กรขนาดใหญ่ก็คือการขาดความไว้วางใจที่ผู้มีส่วนได้ส่วนเสียทางธุรกิจมีต่อโปรแกรมเหล่านั้น

หัวข้อทั่วไปที่นี่ชัดเจนสำหรับ Nemo, Itai และตัวฉันเองในการสนทนา อุตสาหกรรมต้องการโครงสร้างพื้นฐานเพื่อตรวจสอบระบบ AI/ML ในการผลิต เราเกิดวิสัยทัศน์ที่จะให้การมองเห็นนี้เพื่อเพิ่มความไว้วางใจจากผู้มีส่วนได้ส่วนเสียทางธุรกิจ และเพื่อให้ทีม AI สามารถจัดการได้ตลอดเวลาว่าระบบของพวกเขาทำงานอย่างไรและทำซ้ำได้อย่างมีประสิทธิภาพมากขึ้น

และนั่นคือจุดเริ่มต้นของโมนา

ปัญหาปัจจุบันที่ขาดความโปร่งใสของ AI มีอะไรบ้าง

ในหลายอุตสาหกรรม องค์กรต่างๆ ได้ใช้เงินหลายสิบล้านดอลลาร์ไปกับโปรแกรม AI ของตน และประสบความสำเร็จในเบื้องต้นในห้องปฏิบัติการและในการปรับใช้ขนาดเล็ก แต่การปรับขนาด การยอมรับในวงกว้าง และการทำให้ธุรกิจพึ่งพา AI ได้จริงนั้นเป็นความท้าทายที่ยิ่งใหญ่สำหรับเกือบทุกคน

ทำไมสิ่งนี้ถึงเกิดขึ้น? มันเริ่มต้นจากความจริงที่ว่าการวิจัยที่ยอดเยี่ยมไม่ได้แปลเป็นผลิตภัณฑ์ที่ยอดเยี่ยมโดยอัตโนมัติ (ลูกค้าเคยบอกเราว่า “โมเดล ML ก็เหมือนรถยนต์ ทันทีที่พวกเขาออกจากห้องทดลอง พวกเขาสูญเสียมูลค่าไป 20%”) ผลิตภัณฑ์ที่ดีมีระบบรองรับ มีเครื่องมือและกระบวนการต่างๆ เพื่อให้แน่ใจว่าคุณภาพจะคงอยู่เมื่อเวลาผ่านไป และปัญหานั้นจะถูกจับได้ตั้งแต่เนิ่นๆ และได้รับการแก้ไขอย่างมีประสิทธิภาพ ผลิตภัณฑ์ที่ยอดเยี่ยมยังมีวงจรป้อนกลับอย่างต่อเนื่อง มีวงจรการปรับปรุงและแผนงาน ดังนั้น ผลิตภัณฑ์ที่ยอดเยี่ยมจึงต้องการประสิทธิภาพที่ละเอียดและโปร่งใส

เมื่อขาดความโปร่งใส คุณจะจบลงด้วย:

  • ประเด็นที่ซ่อนเร้นอยู่ระยะหนึ่งแล้วปะทุออกมาทำให้เกิด “การซ้อมหนีไฟ”
  • การตรวจสอบและการบรรเทาผลกระทบที่ใช้เวลานานและด้วยตนเอง
  • โปรแกรม AI ที่ไม่ได้รับความเชื่อถือจากผู้ใช้ทางธุรกิจและผู้สนับสนุน และไม่สามารถปรับขนาดได้ในที่สุด

อะไรคือความท้าทายเบื้องหลังการสร้างแบบจำลองการคาดการณ์ที่โปร่งใสและน่าเชื่อถือ

แน่นอนว่าความโปร่งใสเป็นปัจจัยสำคัญในการบรรลุความไว้วางใจ ความโปร่งใสสามารถเกิดขึ้นได้หลายรูปแบบ มีความโปร่งใสในการคาดการณ์เดียว ซึ่งอาจรวมถึงการแสดงระดับความมั่นใจแก่ผู้ใช้ หรือการให้คำอธิบาย/เหตุผลสำหรับการคาดคะเน ความโปร่งใสในการทำนายเดี่ยวมีจุดมุ่งหมายเพื่อช่วยให้ผู้ใช้คุ้นเคยกับการคาดคะเนเป็นส่วนใหญ่ จากนั้น มีความโปร่งใสโดยรวม ซึ่งอาจรวมถึงข้อมูลเกี่ยวกับความแม่นยำในการคาดการณ์ ผลลัพธ์ที่ไม่คาดคิด และปัญหาที่อาจเกิดขึ้น ความโปร่งใสโดยรวมเป็นสิ่งจำเป็นสำหรับทีม AI

ส่วนที่ท้าทายที่สุดของความโปร่งใสโดยรวมคือการตรวจพบปัญหาตั้งแต่เนิ่นๆ แจ้งเตือนสมาชิกในทีมที่เกี่ยวข้องเพื่อให้พวกเขาสามารถดำเนินการแก้ไขก่อนที่จะเกิดหายนะขึ้น

เหตุใดจึงเป็นเรื่องยากที่จะตรวจพบปัญหาตั้งแต่เนิ่นๆ:

  • ปัญหามักจะเริ่มต้นเล็ก ๆ และเดือดปุด ๆ ก่อนที่จะปะทุขึ้นในที่สุด
  • ปัญหามักเริ่มต้นขึ้นเนื่องจากปัจจัยภายนอกที่ควบคุมไม่ได้หรือปัจจัยภายนอก เช่น แหล่งข้อมูล
  • มีหลายวิธีในการ "แบ่งแยกโลก" และการมองหาปัญหาอย่างถี่ถ้วนในกระเป๋าใบเล็กๆ อาจส่งผลให้เกิดเสียงรบกวนมาก (เตือนความเหนื่อยล้า) อย่างน้อยที่สุดเมื่อทำด้วยวิธีที่ไร้เดียงสา

อีกแง่มุมที่ท้าทายในการให้ความโปร่งใสคือกรณีการใช้งาน AI ที่แพร่หลายมากขึ้น สิ่งนี้ทำให้แนวทางหนึ่งขนาดเหมาะกับทุกคนแทบเป็นไปไม่ได้ กรณีการใช้งาน AI ทุกกรณีอาจมีโครงสร้างข้อมูลที่แตกต่างกัน วัฏจักรธุรกิจที่แตกต่างกัน เมตริกความสำเร็จที่แตกต่างกัน และบ่อยครั้งมีแนวทางทางเทคนิคที่แตกต่างกันและแม้แต่สแต็ก

ดังนั้นจึงเป็นงานที่ยิ่งใหญ่ แต่ความโปร่งใสเป็นพื้นฐานสำคัญของความสำเร็จของโปรแกรม AI ดังนั้นคุณต้องทำมัน

คุณช่วยแบ่งปันรายละเอียดบางอย่างเกี่ยวกับโซลูชันสำหรับ NLU / NLP Models & Chatbots ได้ไหม

AI แบบสนทนาเป็นหนึ่งในแนวดิ่งหลักของ Mona เราภูมิใจที่ได้สนับสนุนบริษัทแห่งนวัตกรรมด้วยกรณีการใช้งาน AI เชิงสนทนาที่หลากหลาย รวมถึงโมเดลภาษา แชทบอท และอื่นๆ อีกมากมาย

ปัจจัยทั่วไปของกรณีการใช้งานเหล่านี้คือ โมเดลทำงานอย่างใกล้ชิด (และมองเห็นได้ในบางครั้ง) ต่อลูกค้า ดังนั้นความเสี่ยงของประสิทธิภาพที่ไม่สอดคล้องกันหรือพฤติกรรมที่ไม่ดีจึงสูงกว่า กลายเป็นเรื่องสำคัญมากสำหรับทีม AI เชิงสนทนาในการทำความเข้าใจพฤติกรรมของระบบในระดับละเอียด ซึ่งเป็นจุดแข็งของโซลูชันการตรวจสอบของ Mona

วิธีการแก้ปัญหาของ Mona ที่ค่อนข้างไม่เหมือนใครคือการกลั่นกรองกลุ่มการสนทนาอย่างเป็นระบบและค้นหาช่องทางที่โมเดล (หรือบอท) ทำงานผิดปกติ ซึ่งช่วยให้ทีม AI เชิงสนทนาสามารถระบุปัญหาได้ตั้งแต่เนิ่นๆ และก่อนที่ลูกค้าจะสังเกตเห็น ความสามารถนี้เป็นตัวขับเคลื่อนการตัดสินใจที่สำคัญสำหรับทีม AI แบบสนทนาเมื่อเลือกโซลูชันการตรวจสอบ

โดยสรุปแล้ว Mona นำเสนอโซลูชันแบบ end-to-end สำหรับการตรวจสอบ AI การสนทนา เริ่มต้นด้วยการทำให้มั่นใจว่ามีแหล่งข้อมูลเดียวสำหรับพฤติกรรมของระบบเมื่อเวลาผ่านไป และดำเนินการติดตามตัวบ่งชี้ประสิทธิภาพหลักอย่างต่อเนื่อง และข้อมูลเชิงลึกเชิงรุกเกี่ยวกับพฤติกรรมที่ไม่เหมาะสม ซึ่งช่วยให้ทีมใช้มาตรการแก้ไขเชิงป้องกันที่มีประสิทธิภาพ

คุณช่วยเสนอรายละเอียดบางอย่างเกี่ยวกับเครื่องมือเชิงลึกของ Mona ได้ไหม

แน่นอน. เริ่มต้นด้วยแรงจูงใจ วัตถุประสงค์ของเครื่องมือข้อมูลเชิงลึกคือการแสดงความผิดปกติให้กับผู้ใช้ด้วยข้อมูลเชิงบริบทในปริมาณที่เหมาะสมและไม่สร้างเสียงรบกวนหรือทำให้เกิดความเมื่อยล้าในการแจ้งเตือน

เอ็นจิ้นข้อมูลเชิงลึกเป็นเวิร์กโฟลว์การวิเคราะห์ที่ไม่เหมือนใคร ในเวิร์กโฟลว์นี้ เอ็นจิ้นจะค้นหาความผิดปกติในทุกส่วนของข้อมูล ทำให้ตรวจพบปัญหาตั้งแต่เนิ่นๆ เมื่อปัญหายัง "เล็กน้อย" และก่อนที่จะส่งผลกระทบต่อชุดข้อมูลทั้งหมดและ KPI ของธุรกิจปลายน้ำ จากนั้นจะใช้อัลกอริธึมที่เป็นกรรมสิทธิ์เพื่อตรวจหาต้นตอของความผิดปกติ และทำให้แน่ใจว่าความผิดปกติทั้งหมดจะได้รับการแจ้งเตือนเพียงครั้งเดียวเพื่อหลีกเลี่ยงเสียงรบกวน ประเภทความผิดปกติที่รองรับ ได้แก่: ความผิดปกติของอนุกรมเวลา การเลื่อน ค่าผิดปกติ การลดลงของโมเดล และอื่นๆ

เครื่องมือข้อมูลเชิงลึกสามารถปรับแต่งได้สูงผ่านการกำหนดค่าแบบไม่มีโค้ด/โค้ดต่ำที่ใช้งานง่ายของ Mona ความสามารถในการกำหนดค่าของเครื่องยนต์ทำให้ Mona เป็นโซลูชันที่ยืดหยุ่นที่สุดในตลาด ครอบคลุมกรณีการใช้งานที่หลากหลาย (เช่น ชุดและการสตรีม โดยมี/ไม่มีข้อเสนอแนะทางธุรกิจ / ความจริงพื้นฐาน ข้ามรุ่นหรือระหว่างการฝึกและการอนุมาน และอื่นๆ ).

สุดท้าย เอ็นจิ้นข้อมูลเชิงลึกนี้ได้รับการสนับสนุนโดยแดชบอร์ดการแสดงภาพ ซึ่งสามารถดูข้อมูลเชิงลึกได้ และชุดเครื่องมือตรวจสอบเพื่อเปิดใช้งานการวิเคราะห์สาเหตุและการสำรวจข้อมูลเชิงบริบทเพิ่มเติม เอ็นจิ้นข้อมูลเชิงลึกยังรวมเข้ากับเอ็นจิ้นการแจ้งเตือนอย่างสมบูรณ์ซึ่งช่วยให้สามารถให้ข้อมูลเชิงลึกแก่สภาพแวดล้อมการทำงานของผู้ใช้เอง รวมถึงอีเมล แพลตฟอร์มการทำงานร่วมกัน และอื่นๆ

เมื่อวันที่ 31 มกราคม พ. โมนาเปิดตัว โซลูชันความยุติธรรมของ AI ใหม่นี้ คุณช่วยแชร์รายละเอียดเกี่ยวกับฟีเจอร์นี้ให้เราทราบหน่อยได้ไหมว่าฟีเจอร์นี้คืออะไรและเหตุใดจึงสำคัญ

ความเป็นธรรมของ AI นั้นเกี่ยวกับการทำให้มั่นใจว่าอัลกอริทึมและระบบที่ขับเคลื่อนด้วย AI โดยทั่วไปจะทำการตัดสินใจที่เป็นกลางและเท่าเทียมกัน การจัดการและป้องกันอคติในระบบ AI เป็นสิ่งสำคัญ เนื่องจากอาจส่งผลที่ตามมาในโลกแห่งความเป็นจริง ด้วยความโดดเด่นที่เพิ่มขึ้นของ AI ผลกระทบต่อชีวิตประจำวันของผู้คนจะปรากฏให้เห็นในสถานที่ต่างๆ มากขึ้น รวมถึงทำให้การขับขี่ของเราเป็นอัตโนมัติ ตรวจจับโรคได้แม่นยำยิ่งขึ้น ปรับปรุงความเข้าใจโลก และสร้างงานศิลปะ หากเราไม่สามารถวางใจได้ว่ามันยุติธรรมและเป็นกลาง เราจะปล่อยให้มันแพร่กระจายต่อไปได้อย่างไร?

สาเหตุหลักประการหนึ่งของความลำเอียงใน AI เป็นเพียงความสามารถของข้อมูลการฝึกแบบจำลองเพื่อเป็นตัวแทนของโลกแห่งความเป็นจริงทั้งหมด ซึ่งอาจเกิดจากการเลือกปฏิบัติในอดีต การเป็นตัวแทนของกลุ่มบางกลุ่มหรือแม้แต่การบิดเบือนข้อมูลโดยเจตนา ตัวอย่างเช่น ระบบจดจำใบหน้าที่ฝึกฝนให้กับบุคคลที่มีผิวสีอ่อนส่วนใหญ่มีแนวโน้มที่จะมีอัตราความผิดพลาดสูงกว่าในการจดจำบุคคลที่มีสีผิวเข้มกว่า ในทำนองเดียวกัน โมเดลภาษาที่ได้รับการฝึกอบรมเกี่ยวกับข้อมูลข้อความจากชุดแหล่งข้อมูลแคบๆ อาจพัฒนาอคติได้หากข้อมูลมีความเอนเอียงไปในมุมมองของโลกบางอย่าง ในหัวข้อต่างๆ เช่น ศาสนา วัฒนธรรม และอื่นๆ

โซลูชันความยุติธรรมด้าน AI ของ Mona ช่วยให้ AI และทีมธุรกิจมั่นใจได้ว่า AI ของพวกเขาปราศจากอคติ ในภาคส่วนที่ได้รับการควบคุม โซลูชันของ Mona สามารถเตรียมทีมให้พร้อมสำหรับการปฏิบัติตามกฎระเบียบ

โซลูชันที่ยุติธรรมของ Mona นั้นพิเศษเพราะตั้งอยู่บนแพลตฟอร์ม Mona ซึ่งเป็นสะพานเชื่อมระหว่างข้อมูล AI และโมเดล และความหมายในโลกแห่งความเป็นจริง Mona พิจารณาทุกส่วนของกระบวนการทางธุรกิจที่โมเดล AI ให้บริการในการผลิต เพื่อเชื่อมโยงระหว่างข้อมูลการฝึกอบรม พฤติกรรมของโมเดล และผลลัพธ์ที่เกิดขึ้นจริงในโลกแห่งความเป็นจริง เพื่อให้การประเมินความยุติธรรมครอบคลุมมากที่สุด

ประการที่สอง มีเครื่องมือวิเคราะห์ที่ไม่เหมือนใครซึ่งช่วยให้การแบ่งส่วนข้อมูลมีความยืดหยุ่นเพื่อควบคุมพารามิเตอร์ที่เกี่ยวข้อง สิ่งนี้ทำให้สามารถประเมินความสัมพันธ์ได้อย่างแม่นยำในบริบทที่ถูกต้อง หลีกเลี่ยง Simpson's Paradox และให้ "คะแนนอคติ" ที่แท้จริงในเชิงลึกสำหรับเมตริกประสิทธิภาพใดๆ และคุณลักษณะที่ได้รับการป้องกันใดๆ

ดังนั้น โดยรวมแล้ว ฉันจะบอกว่า Mona เป็นองค์ประกอบพื้นฐานสำหรับทีมที่ต้องการสร้างและปรับขนาด AI ที่มีความรับผิดชอบ

วิสัยทัศน์ของคุณสำหรับอนาคตของ AI คืออะไร?

นี่เป็นคำถามใหญ่

ฉันคิดว่ามันตรงไปตรงมาที่จะคาดการณ์ว่า AI จะยังคงเติบโตในการใช้งานและส่งผลกระทบต่อภาคอุตสาหกรรมที่หลากหลายและแง่มุมของชีวิตผู้คน อย่างไรก็ตาม เป็นเรื่องยากที่จะจริงจังกับวิสัยทัศน์ที่มีรายละเอียด และในขณะเดียวกันก็พยายามครอบคลุมกรณีการใช้งานทั้งหมดและความหมายของ AI ในอนาคต เพราะไม่มีใครรู้มากพอที่จะวาดภาพนั้นได้อย่างน่าเชื่อถือ

อย่างที่กล่าวไป สิ่งที่เรารู้แน่นอนก็คือ AI จะอยู่ในมือของผู้คนจำนวนมากขึ้นและตอบสนองวัตถุประสงค์ต่างๆ ได้มากขึ้น ความจำเป็นในการกำกับดูแลและความโปร่งใสจะเพิ่มขึ้นอย่างมาก

การมองเห็นที่แท้จริงของ AI และวิธีการทำงานจะมีบทบาทหลักสองประการ ประการแรก มันจะช่วยปลูกฝังความไว้วางใจในผู้คนและขจัดอุปสรรคในการต่อต้านเพื่อการรับเลี้ยงบุตรบุญธรรมที่รวดเร็วขึ้น ประการที่สอง มันจะช่วยให้ใครก็ตามที่ใช้งาน AI มั่นใจได้ว่าจะไม่หลุดมือไป

ขอบคุณสำหรับบทสัมภาษณ์ที่ดี ผู้อ่านที่ต้องการเรียนรู้เพิ่มเติมควรเยี่ยมชม โมนาแล็บส์.

ผู้ร่วมก่อตั้ง unite.AI และเป็นสมาชิกของ สภาเทคโนโลยี Forbes อองตวนเป็นอ ผู้เป็นเจ้ายังมาไม่ถึง ผู้หลงใหลเกี่ยวกับอนาคตของ AI และหุ่นยนต์

เขายังเป็นผู้ก่อตั้ง หลักทรัพย์.ioซึ่งเป็นเว็บไซต์ที่เน้นการลงทุนด้านเทคโนโลยีก่อกวน