สัมภาษณ์
บ็อบบี้ แซมูเอลส์ ผู้ร่วมก่อตั้งและซีอีโอของ Protege – ซีรีส์สัมภาษณ์

บ็อบบี้ แซมูเอลส์ นำทีมวางกลยุทธ์และการดำเนินการของ Protege ในด้านผลิตภัณฑ์ การตลาด และการก่อตั้งธุรกิจ เขาเป็นผู้ร่วมก่อตั้ง Protege ในปี 2024 และดำรงตำแหน่งซีอีโอ ตั้งแต่เริ่มก่อตั้งภายใต้การนำของเขา Protege ได้ระดมทุนได้ 35 ล้านดอลลาร์และเติบโตถึง 30 ล้านดอลลาร์ใน GMV ในปีแรกที่ดำเนินธุรกิจ ก่อนหน้านี้ บ็อบบี้曾ดำรงตำแหน่งผู้จัดการทั่วไปของ Privacy Hub ที่ Datavant ซึ่งเขาช่วยขับเคลื่อนการเติบโตของบริษัทก่อนที่จะควบรวมกิจการกับ Ciox Health มูลค่า 7.0 พันล้านดอลลาร์ เพื่อสร้างระบบนิเวศข้อมูลสุขภาพที่เป็นกลางที่ใหญ่ที่สุดในสหรัฐอเมริกา ในช่วงก่อนหน้านี้ เขาเคยเป็นผู้นำด้านการเป็นพันธมิตรที่ LiveRamp ซึ่งเขาพัฒนาความเชี่ยวชาญในการสร้างเครือข่ายข้อมูลที่เป็นกลาง บ็อบบี้จบการศึกษาระดับ M.B.A. จาก Stanford Graduate School of Business และ A.B. จาก Harvard College ซึ่งเขา曾ดำรงตำแหน่งประธานของ The Harvard Crimson เขามีความเชี่ยวชาญที่ลึกซึ้งในการแลกเปลี่ยนข้อมูลที่มีการควบคุมและแปลโครงสร้างพื้นฐานที่ซับซ้อนให้เป็น AI ที่เชื่อถือได้สำหรับพันธมิตรองค์กร
Protege เป็นบริษัทโครงสร้างพื้นฐานข้อมูลที่เชื่อมต่อผู้ถือครองชุดข้อมูลที่มีคุณค่าสูงและเป็นเจ้าของกับนักพัฒนา AI ที่สร้างโมเดล AI โดยเสนอทางเลือกที่มีการกำกับดูแลและให้ความสำคัญกับความเป็นส่วนตัวในการออกใบอนุญาตและเข้าถึงข้อมูลการฝึกอบรมขนาดใหญ่ ก่อตั้งขึ้นในปี 2024 แพลตฟอร์มนี้มุ่งเน้นไปที่การปลดล็อกข้อมูลหลายรูปแบบ เช่น บันทึกทางการแพทย์ ภาพถ่าย วิดีโอ และเสียง ซึ่งเป็นข้อมูลที่ทีม AI มักจะพบว่า khóในการหาข้อมูล ในขณะเดียวกันก็ให้ความควบคุมเต็มที่แก่ผู้ให้ข้อมูลเกี่ยวกับความเป็นส่วนตัว การปฏิบัติตามกฎระเบียบ และการสร้างรายได้ สำหรับนักสร้าง AI Protege สตรีมไลน์การค้นหาและซื้อข้อมูลผ่านแคตตาล็อกที่คัดสรรและเครื่องมือสำหรับการกรองและรวมชุดข้อมูล ช่วยให้การพัฒนาต่างๆ ในสุขภาพ การสื่อสาร และอื่นๆ เร็วขึ้น โดยหลักการแล้ว บริษัทมีเป้าหมายที่จะเป็นชั้นข้อมูลที่เชื่อถือได้สำหรับ AI ลดความติดขัดที่ใหญ่ที่สุดในการพัฒนาโมเดลสมัยใหม่
สิ่งใดที่สร้างแรงบันดาลใจให้คุณก่อตั้ง Protege และประสบการณ์ของคุณในการนำทีมข้อมูล ความเป็นส่วนตัว และการเปลี่ยนแปลงองค์กรที่ Datavant รวมถึงบทบาทก่อนหน้านี้ที่ LiveRamp มีอิทธิพลต่อความมุ่งมั่นของคุณในการสร้างมันอย่างไร?
ประสบการณ์ของฉันที่ Datavant แสดงให้เห็นถึงทั้งพลังและความซับซ้อนของการเชื่อมต่อข้อมูลอย่างรับผิดชอบในระดับใหญ่ Datavant สร้างแพลตฟอร์มที่ช่วยเชื่อมโยงข้อมูลสุขภาพที่ละเอียดอ่อนในขณะที่รักษาความเป็นส่วนตัวของผู้ป่วยให้สมบูรณ์ และมันชัดเจนสำหรับฉันว่าข้อมูลที่มีการกำกับดูแลอย่างดีสามารถขับเคลื่อนความก้าวหน้าทางสังคมได้อย่างมาก แต่เมื่อไม่เช่นนั้น ก็สามารถก่อให้เกิดอันตรายได้จริง
เมื่อ AI เร่งความเร็วขึ้น ฉันเห็นรูปแบบเดียวกันซ้ำๆ: การมุ่งเน้นไปที่การคำนวณและสถาปัตยกรรม AI แต่ไม่มากนักเกี่ยวกับข้อมูลที่ขับเคลื่อนโมเดลเหล่านั้นเอง สมมติฐานของเราคืออุปสรรคที่ใหญ่ที่สุดถัดไปคือการเข้าถึงข้อมูลที่ถูกต้อง ฉันต้องการสร้างชั้นโครงสร้างพื้นฐานข้อมูลที่ทำให้การแบ่งปันข้อมูลปลอดภัย โปร่งใส และเป็นประโยชน์ร่วมกันสำหรับผู้ถือครองข้อมูลและผู้สร้าง AI ในขณะเดียวกันก็ให้ความเชี่ยวชาญเฉพาะด้านเกี่ยวกับข้อมูล AI เพื่อสนับสนุนความก้าวหน้าของ AI ที่ขับเคลื่อนด้วยการวิจัย นั่นคือสิ่งที่นำไปสู่การก่อตั้ง Protege
Protege อธิบายตัวเองว่าเป็นการสร้าง “กระดูกสันหลังของเศรษฐกิจข้อมูล AI” คุณกำหนดชั้นนี้อย่างไร และโครงสร้างพื้นฐานข้อมูลที่แท้จริงสำหรับ AI มีลักษณะอย่างไรในทางปฏิบัติ?
Protege เป็นเนื้อเยื่อที่เชื่อมต่อระหว่างผู้ถือครองข้อมูลและนักพัฒนา AI ให้สามารถทำงานร่วมกันอย่างปลอดภัยและมีประสิทธิภาพ โครงสร้างพื้นฐานข้อมูลที่แท้จริงสำหรับ AI ไม่เพียงแต่จัดเก็บหรือย้ายข้อมูลเท่านั้น แต่ยังตรวจสอบแหล่งที่มา จัดการสิทธิ์ และรับรองว่าชุดข้อมูลทุกชุดถูกใช้อย่างมีจริยธรรมและได้รับความยินยอม ในทางปฏิบัติ เป็นแพลตฟอร์มเดียวที่ผู้ถือครองเนื้อหาสามารถออกใบอนุญาตข้อมูลได้อย่างมั่นใจและได้รับค่าตอบแทนที่เหมาะสม และผู้สร้าง AI สามารถเข้าถึงชุดข้อมูลที่สำคัญที่พวกเขาต้องการเพื่อฝึกอบรมและประเมินโมเดลอย่างมีความรับผิดชอบ
หนึ่งในภารกิจหลักของคุณคือการรับรองว่าโมเดลได้รับการฝึกอบรมจากชุดข้อมูลที่ได้รับใบอนุญาต การเป็นตัวแทน และได้รับความยินยอมอย่างไร Protege จัดการแหล่งที่มาของข้อมูลอย่างมีจริยธรรมในระดับใหญ่?
เราจัดการระบบจริยธรรมผ่านระบบ ไม่ใช่คำขวัญ ด้วยทุกแหล่งข้อมูลและเนื้อหาที่เรารวบรวมและจัดส่ง เรารับรองว่าผู้ถือครองสิทธิ์ยังคงรักษาสิทธิ์ในการออกใบอนุญาตและคุ้มครองความเป็นส่วนตัว
แพลตฟอร์มของเราผสมผสานความเชี่ยวชาญด้านการวิจัยของมนุษย์กับระบบข้อมูลและระบบที่สามารถปรับขนาดเพื่อจัดส่งข้อมูลที่ได้รับการคุ้มครองสิทธิ์ เรายังทำงานร่วมกับลูกค้าผู้ซื้อข้อมูลเพื่อให้แน่ใจว่าข้อมูลเป็นตัวแทนของประชากรในโลกแห่งความเป็นจริงและสะท้อนถึงกรณีการใช้งานในโลกแห่งความเป็นจริง เมื่อแก้ไขทั้งผู้ให้ข้อมูลและผู้ซื้อข้อมูลด้วยความชัดเจนและความสม่ำเสมอ เราสามารถรักษาความสอดคล้อง ความยุติธรรม และความไว้วางใจได้
อุตสาหกรรม AI มักถูกขับเคลื่อนโดยจิตวิญญาณ “เก็บข้อมูลก่อน ถามทีหลัง” คุณเห็นว่าการออกใบอนุญาตข้อมูลที่โปร่งใสจะเปลี่ยนแปลงความสัมพันธ์ระหว่างผู้ให้ข้อมูลและผู้พัฒนา AI อย่างไร?
ความโปร่งใสเปลี่ยนการดึงข้อมูลเป็นการทำงานร่วมกัน แทนที่จะดึงข้อมูล บริษัท AI มีตัวเลือกในการออกใบอนุญาตข้อมูลอย่างมีจริยธรรมจากผู้ให้ข้อมูลที่ได้รับการตรวจสอบแล้ว ซึ่งสร้างแรงจูงใจที่ดีกว่าสำหรับทั้งสองฝ่าย ผู้ให้ข้อมูลได้รับรายได้และการควบคุม และผู้พัฒนา AI ได้รับชุดข้อมูลที่สะอาดและคุณภาพสูงกว่าโดยไม่ต้องมีปัญหาเรื่องกฎหมายและทรัพย์สินทางปัญญา
การเปลี่ยนแปลงนี้สร้างความไว้วางใจ ซึ่งนำไปสู่ความเร็วในการพัฒนา AI เมื่อองค์กรเห็นว่า AI สามารถสร้างขึ้นได้อย่างมีความรับผิดชอบด้วยความยินยอมและค่าตอบแทนที่ชัดเจนสำหรับผู้ถือครองสิทธิ์ข้อมูล นี่จะปลดล็อกกรณีการใช้งานและความต้องการข้อมูลมากขึ้น ซึ่งสร้างความต้องการชุดข้อมูลคุณภาพสูงมากขึ้น ทำให้เกิดวงจรที่เป็นธรรมชาติ: แหล่งข้อมูลที่ดีที่สุดดึงดูดผู้ซื้อ และผู้ซื้อดึงดูดแหล่งข้อมูลที่มีคุณภาพสูงกว่า ทุกคนได้รับประโยชน์
ข้อมูลสังเคราะห์มักถูกมองว่าเป็นวิธีแก้ปัญหาความเป็นส่วนตัวและความลำเอียง คุณคิดว่าความสมดุลที่เหมาะสมระหว่างข้อมูลสังเคราะห์และข้อมูลโลกแห่งความเป็นจริงนั้นอยู่ที่ไหน โดยเฉพาะในภาคส่วนที่มีการควบคุมอย่างสูง เช่น สุขภาพ?
ข้อมูลสังเคราะห์มีประโยชน์สำหรับการทดสอบและการเพิ่มเติม แต่ไม่สามารถแทนที่ความซับซ้อนและความหลากหลายของกิจกรรมในโลกแห่งความเป็นจริงที่สร้างข้อมูลการฝึกอบรมและประเมินผลได้ นี่เป็นจริงอย่างยิ่งในสาขาสุขภาพที่ประวัติการดูแลผู้ป่วยระยะยาวและผลลัพธ์ภายในบริบทการดูแลมีความสำคัญ
เรามั่นใจว่า AI ที่ไม่ได้รับการฝึกอบรมจากความซับซ้อนของโลกแห่งความเป็นจริงไม่สามารถสร้างข้อมูลสังเคราะห์ที่เป็นตัวแทนของโลกแห่งความเป็นจริงได้ การสมดุลที่เหมาะสมน่าจะเป็นแนวทางแบบผสมผสาน โดยที่เราต้องการแหล่งข้อมูลที่มีประโยชน์และมีคุณภาพสูงมากขึ้นที่ปัจจุบันถูกปิดกั้นและต้องปลดล็อก และจากนั้นรวมเข้ากับข้อมูลสังเคราะห์ที่สร้างโดย AI สำหรับกรณีการใช้งานเฉพาะ
Protege ช่วยให้องค์กรสามารถแบ่งปันข้อมูลโลกแห่งความเป็นจริงที่มีคุณค่าได้อย่างปลอดภัย โดยไม่ต้องเปิดเผยข้อมูลที่เป็นกรรมสิทธิ์ ข้อมูลผู้ป่วย หรือทรัพย์สินทางปัญญาอย่างไร?
ความปลอดภัยและความเป็นส่วนตัวถูกสร้างไว้ในทุกขั้นตอนของการเดินทาง ไม่ว่าจะเป็นระบบภายในของเราหรือพันธมิตรด้านการระบุตัวตนและความเป็นส่วนตัวที่ตรวจสอบการถ่ายโอนข้อมูลของเรา เพื่อให้แน่ใจว่าข้อมูลของเรายังคงอยู่ภายในขอบเขตที่ตั้งใจไว้
ในภาคสุขภาพ นั่นหมายถึงการปฏิบัติตามกรอบการทำงานด้านความเป็นส่วนตัวและความสอดคล้องสำหรับการถ่ายโอนข้อมูลทั้งหมด ในสื่อ นั่นหมายถึงการรับรองว่าเนื้อหาถูกออกใบอนุญาตเพียงสำหรับการใช้งานที่ตั้งใจไว้เท่านั้น โดยมีเงื่อนไขใบอนุญาตและระยะเวลาที่ตกลงกันไว้ล่วงหน้า
เมื่อโมเดลพื้นฐานยังคงพัฒนาไปสู่ยุคหน้า สิ่งใดจะกำหนดการขนส่งข้อมูลการฝึกอบรมที่มีคุณภาพสูงรุ่นต่อไป?
สามหลักการจะนำไปสู่: แหล่งที่มา ความแม่นยำ และจุดประสงค์
แหล่งที่มาหมายถึงการตรวจสอบย้อนกลับไปยังแหล่งที่มาและเงื่อนไข ความแม่นยำหมายถึงการคัดเลือกข้อมูลสำหรับโหมดหรือกรณีการใช้งานเฉพาะ ไม่ใช่คอลเลกชันข้อมูลทั่วไปหรือข้อมูลที่ไม่สะท้อนถึงสถานการณ์โลกแห่งความเป็นจริง จุดประสงค์หมายถึงการปรับเลือกข้อมูลให้สอดคล้องกับผลลัพธ์ที่แท้จริง ไม่ใช่แค่มาตรฐานการวัดความงามเท่านั้น
ทั้งสามอย่างนี้มารวมกันเพื่อสร้างเส้นทางสู่การใช้ข้อมูลคุณภาพสูงในการขับเคลื่อนโมเดลที่ดีกว่า
การกำกับดูแลที่เกิดขึ้นใหม่ เช่น กฎหมาย AI ของสหภาพยุโรป และกรอบการทำงานที่จะเกิดขึ้นในสหรัฐอเมริกา มีอิทธิพลต่อแนวทางของ Protege ในด้านการปฏิบัติตามกฎระเบียบและการทำงานร่วมกันข้อมูลข้ามพรมแดนอย่างไร?
การกำกับดูแลเหล่านี้ยืนยันแนวทางของเรา ซึ่งเราได้สร้างบริษัทขึ้นมา พวกเขามุ่งเน้นไปที่ความโปร่งใส แหล่งที่มา และการบริหารความเสี่ยง ซึ่งถูกฝังไว้ในผลิตภัณฑ์และแพลตฟอร์มของเราโดยค่าเริ่มต้น
เรามั่นใจว่าโอกาส AI ในอนาคตต้องปกป้องผู้ถือครองสิทธิ์และรักษาความควบคุมความเป็นส่วนตัวอย่างเข้มงวด ด้วยการรักษาเรื่องเหล่านี้ให้เป็นสิ่งจำเป็น เราช่วยให้ผู้ให้ข้อมูลและลูกค้าของเราเดินหน้าต่อไปด้วยความมั่นใจและความไว้วางใจในภูมิทัศน์ AI ที่เปลี่ยนแปลงอย่างต่อเนื่อง เป้าหมายของเราคือการทำให้การพัฒนา AI ที่มีความรับผิดชอบไม่ใช่แค่สิ่งที่ถูกต้องเท่านั้น แต่ยังเป็นสิ่งที่ง่ายที่สุดในการทำ
คุณเห็นความโปร่งใสและแหล่งที่มาของข้อมูลมีบทบาทอย่างไรในการฟื้นฟูความไว้วางใจของสาธารณชนในระบบ AI?
ความไว้วางใจเริ่มต้นด้วยการตรวจสอบย้อนกลับ เมื่อผู้คนเข้าใจว่าข้อมูลมาจากไหนและใช้อย่างไร พวกเขามีแนวโน้มที่จะไว้วางใจผลลัพธ์ของ AI มากขึ้น
ความโปร่งใสและแหล่งที่มาของข้อมูลสร้างความรับผิดชอบตั้งแต่ผู้ถือครองข้อมูล ผู้พัฒนาโมเดล และผู้ใช้ปลายทาง ทำให้ AI เป็นสิ่งที่เข้าใจได้และอธิบายได้มากกว่ากล่องดำ
หลังจากเติบโต 20 เท่าและได้รับการสนับสนุน 25 ล้านดอลลาร์จาก Series A คุณสร้างสมดุลระหว่างการขยายตัวอย่างรวดเร็วกับการรักษาความมุ่งมั่นของ Protege ในด้านจริยธรรมและความปลอดภัยอย่างไร และสิ่งใดที่จะเกิดขึ้นต่อไปเมื่อคุณยังคงกำหนดรูปแบบวิธีการที่องค์กรฝึกอบรมโมเดล AI อย่างมีความรับผิดชอบ?
จริยธรรมและความปลอดภัยเป็นพื้นฐานที่ทำให้เราเติบโตได้ ทุกกระบวนการใหม่ การเป็นพันธมิตร และผลิตภัณฑ์จะถูกวัดจากมุมมองของการดำเนินงานโดยสมมติว่าคนอื่นกำลังดู หากทุกคนเห็นได้ว่าเราดำเนินงานและตัดสินใจอย่างไร ฉันจะอยากให้พวกเขาเป็นคนภูมิใจ
เมื่อเรามองไปข้างหน้าสู่ปี 2026 เรากำลังขยายการเข้าถึงไปยังพื้นที่ใหม่ ๆ นอกเหนือจากสุขภาพและ媒体 และสร้างผลิตภัณฑ์ข้อมูลใหม่ ๆ เช่น ข้อมูลสำหรับการประเมินผลการทำงานของ AI เนื่องจากองค์กร AI พยายามวัดประสิทธิภาพของ AI สำหรับกรณีการใช้งานในโลกแห่งความเป็นจริงอย่างดีขึ้น เป้าหมายของเราคือการเป็นแพลตฟอร์มที่เชื่อถือได้เพียงแห่งเดียวสำหรับข้อมูล AI และความเชี่ยวชาญที่สร้างขึ้นเพื่อขับเคลื่อนความก้าวหน้าของ AI ในระยะยาว
ขอขอบคุณสำหรับการสัมภาษณ์ที่ยอดเยี่ยม ผู้อ่านสามารถเยี่ยมชม Protege เพื่อเรียนรู้เพิ่มเติม












