สัมภาษณ์
Piotr Tomasik, Co-Founder and President of TensorWave – Interview Series

Piotr Tomasik, Co-Founder and President of TensorWave, เป็นนักธุรกิจด้านเทคโนโลยีและผู้บริหารโครงสร้างพื้นฐาน AI ที่มีประสบการณ์มากกว่าสองทศวรรษ โดยครอบคลุม AI, SaaS, การประมวลผลคลาวด์, ฟินเทค และผู้สร้างเนื้อหา ก่อนที่จะร่วมก่อตั้ง TensorWave ในปี 2023 เขาได้ร่วมก่อตั้ง Influential ซึ่งเป็นแพลตฟอร์มการตลาดอินฟลูเอ็นเซอร์ที่ใช้ AI และถูกซื้อโดย Publicis ในราคาประมาณ 500 ล้านดอลลาร์ โดยที่เขาดำรงตำแหน่ง CTO ก่อนที่จะเปลี่ยนไปเป็นบทบาทที่ปรึกษา
ตลอดอาชีพการงานของเขา Tomasik ได้ก่อตั้งหรือเป็นผู้นำบริษัทต่างๆ รวมถึง Lets Rolo, On Guard Data และ ActiveSide ในขณะที่ดำรงตำแหน่งผู้บริหารด้านเทคโนโลยีที่ CARD.com และ Marker Trax นอกจากนี้เขายังเป็น General Partner ที่ 1864 Fund และเป็นผู้ร่วมก่อตั้ง StartUp Vegas โดยที่เขาสนับสนุนระบบนิเวศการเริ่มต้นธุรกิจในลาสเวกัสและผู้มีพรสวรรค์ทางเทคโนโลยีที่เกิดขึ้นใหม่ เป็นศิษย์เก่าด้านวิทยาการคอมพิวเตอร์ของ UNLV และเป็นผู้นำด้านเทคโนโลยีที่ได้รับการยอมรับ Tomasik ได้กลายเป็นที่รู้จักในการช่วยวางตำแหน่ง TensorWave ให้เป็นบริษัทโครงสร้างพื้นฐาน AI ที่เติบโตอย่างรวดเร็ว โดยมุ่งเน้นไปที่แพลตฟอร์มคลาวด์ GPU ขนาดใหญ่ที่ขับเคลื่อนโดย AMD
TensorWave เป็นบริษัทโครงสร้างพื้นฐาน AI ที่มุ่งเน้นในการส่งมอบการประมวลผลคลาวด์ที่มีประสิทธิภาพสูง โดยใช้ GPU ของ AMD โดยมีจุดมุ่งหมายเพื่อเป็นทางเลือกแทนระบบนิเวศ AI ที่ปิดที่สุด ก่อตั้งขึ้นในปี 2023 และมีสำนักงานใหญ่อยู่ที่ลาสเวกัส บริษัทสร้างคลัสเตอร์ GPU ขนาดใหญ่ที่ได้รับการปรับให้เหมาะสมสำหรับการฝึกอบรมและใช้โมเดล AI ที่ซับซ้อน โดยมุ่งเน้นไปที่ประสิทธิภาพ ความยืดหยุ่น และความคุ้มค่าด้านต้นทุน โดยการใช้ระบบนิเวศฮาร์ดแวร์และซอฟต์แวร์ที่เปิดกว้าง TensorWave มีเป้าหมายในการขยายการเข้าถึงทรัพยากรการประมวลผล AI ที่ทรงพลังสำหรับองค์กร นักวิจัย และผู้พัฒนา โดยไม่มีข้อจำกัดของการล็อคอินของซัพพลายเออร์แบบดั้งเดิม
Nvidia เป็นผู้นำในตลาด GPU ส่วนใหญ่ – ทำไมคุณจึงตัดสินใจไปกับ AMD ทั้งหมด และมีประโยชน์ gìที่การเลือกนี้ให้กับ TensorWave และลูกค้า?
หลังจากการเปิดตัว ChatGPT ความต้องการ AI เพิ่มขึ้นอย่างรวดเร็ว GPU ถูกซื้อไปอย่างรวดเร็ว และ NVIDIA เป็นตัวเลือกเดียวหากคุณสามารถซื้อได้ และหากคุณสามารถจัดการค่าใช้จ่ายได้ การขาดแคลนนี้ทำให้เกิดความสนใจอย่างมากในตัวเลือกอื่นๆ ในขณะนี้ที่เรามีผ่านความตื่นเต้นเริ่มต้นแล้ว มีโอกาสที่แท้จริงในการท้าทายการครอบงำของ Nvidia ด้วยโซลูชันที่สามารถเข้าถึงได้ คุ้มค่าด้านต้นทุน และใช้งานง่าย
ในฐานะสตาร์ทอัพ เราได้ตัดสินใจทางธุรกิจด้วยจุดมุ่งหมายและวัตถุประสงค์ที่เข้มแข็ง ซึ่งเป็นเหตุผลที่เราไม่ได้ทดลองกับ Nvidia และเรายังคงสร้างความสามารถของเราบน AMD ช่วงต่อไปของบริษัทของเราคือการมุ่งเน้นไปที่ความสามารถที่มุ่งเน้นเหล่านี้ เพื่อให้ทุกคนสามารถเข้าร่วมและทำอะไรที่มีความหมายด้วย AI AMD เป็นตัวเลือกที่น่าเชื่อถือที่มีการผลิตขนาดใหญ่ โพสต์ซอฟต์แวร์ที่เปิดกว้าง และแผนการสำหรับ AI รุ่นใหม่
วิธีการของ TensorWave ในโครงสร้างพื้นฐาน AI แตกต่างจากผู้ให้บริการคลาวด์ GPU แบบดั้งเดิมอย่างไร?
การแตกต่างของเราคือเรื่องง่าย: เราเป็นคลาวด์ AMD เพียงแห่งเดียวที่มีขนาดใหญ่ โดยมีจุดมุ่งหมายเพื่อสร้างทางเลือกใน AI compute และท้าทายการครอบงำของ Nvidia แต่นอกจากนี้ยังเกี่ยวกับจิตวิญญาณและความมุ่งมั่นของเราในการนำเสนอทางเลือกที่แท้จริงให้กับตลาด เราต้องการส่งมอบโครงสร้างพื้นฐาน AMD ที่มีคุณภาพสูงในระดับใหญ่ จากนั้นเราจะขยายไปสู่บริการระดับบน – Models-as-a-Service, AI-as-a-Service โดยทำให้ทุกอย่างง่ายขึ้น
ในฐานะคลาวด์ AMD เพียงแห่งเดียว เรามีประสบการณ์ซอฟต์แวร์ที่สร้างขึ้นโดยเฉพาะสำหรับ AMD ตั้งแต่วันแรก การมุ่งเน้นนี้ช่วยให้เราได้ปรับให้เหมาะสมกับซิลิคอน เน็ตเวิร์ก และซอฟต์แวร์จากปลายถึงปลาย เพื่อให้ทีมสามารถขยายขนาดเมื่อพวกเขาต้องการ
บทบาทของการร่วมมือเชิงกลยุทธ์กับ AMD มีผลต่อการเติบโตและการแตกต่างของ TensorWave อย่างไร?
มันคือพื้นฐาน AMD ลงทุนใน TensorWave เชิญเราเข้าร่วมการเปิดตัว MI300X Instinct และเรายังคงร่วมมือกันอย่างใกล้ชิดเกี่ยวกับการผลิตฮาร์ดแวร์ ซอฟต์แวร์ และการเติบโตของระบบนิเวศ การเป็นคลาวด์ AMD เพียงแห่งเดียวหมายความว่าเราสามารถย้ายไปอย่างรวดเร็วพร้อมกับการผลิต Instinct แต่ละรุ่น และทำหน้าที่เป็นห้องปฏิบัติการที่ให้ทางเลือกที่แท้จริงในตลาดของเรา การร่วมมือของ AMD ช่วยให้เราสามารถปิดช่องว่างได้อย่างรวดเร็ว ส่งมอบผลิตภัณฑ์ใหม่ๆ และเผยแพร่ประสิทธิภาพที่แท้จริงในระดับใหญ่
การเข้าถึง GPU ยังคงเป็นปัญหาสำคัญสำหรับทีม AI – TensorWave จัดการกับความท้าทายนี้อย่างไร?
เราจัดการกับปัญหานี้ขั้นแรกด้วยความเป็นอิสระด้านการจัดหาสินค้า: โดยการสร้างบน AMD เราหลีกเลี่ยงข้อจำกัดด้านการผลิตที่เลวร้ายที่สุดของผู้ผลิตชิปอื่นๆ และส่งต่อความพร้อมให้บริการไปยังลูกค้า ของเราคือการสร้างคลัสเตอร์ GPU ขนาดใหญ่ที่ได้รับการปรับให้เหมาะสมสำหรับการฝึกอบรมและใช้โมเดล AI ที่ซับซ้อน โดยมุ่งเน้นไปที่ประสิทธิภาพ ความยืดหยุ่น และความคุ้มค่าด้านต้นทุน
คุณสามารถอธิบายได้อย่างไรว่าฟีเจอร์ต่างๆ เช่น การทำความเย็นของเหลวโดยตรงและเครือข่าย UEC-Ready (Universal Ethernet Consortium) เพิ่มประสิทธิภาพและความคุ้มค่าด้านต้นทุน?
การทำความเย็นของเหลวโดยตรงและเครือข่าย UEC-Ready เป็นพื้นฐานของสิ่งที่ทำให้คลาวด์ AI สมัยใหม่คุ้มค่าในระดับใหญ่ และทั้งสองอย่างนี้เป็นศูนย์กลางของวิธีการออกแบบ TensorWave
เกี่ยวกับการทำความเย็นของเหลวโดยตรง: การผลิตตัวเร่งความเร็วรุ่นใหม่ๆ ของ AMD เช่น MI355X และ MI455X ใช้พลังงานมาก และใช้พลังงานได้ไม่เกิน 1400W+ ต่อ GPU การทำความเย็นของเหลวโดยตรงจะเอาความร้อนออกจากแหล่งที่มาผ่านการออกแบบแผ่นเย็นหรือการแช่เย็น ซึ่งทำสิ่งเหล่านี้ให้กับลูกค้าของเราได้สามอย่าง ประการแรก มันทำให้สามารถเพิ่มความหนาแน่นของตู้รางได้อย่างมาก 120-300kW+ ต่อตู้รางแทน 30-40kW ซึ่งจะบีบอัดขนาดและลดค่าใช้จ่ายด้านต้นทุนและระบบไฟฟ้า ประการที่สอง มันจะผลักดัน PUE ไปยัง 1.1 เทียบกับ 1.4-1.5 สำหรับสิ่งอำนวยความสะดวกที่มีการทำความเย็นด้วยอากาศแบบดั้งเดิม ซึ่งแปลเป็นเงินหลายสิบล้านดอลลาร์ต่อปีในการประหยัดค่าใช้จ่าย ประการที่สาม และมักถูกมองข้าม มันจะทำให้ซิลิคอนอยู่ที่อุณหภูมิที่ต่ำและเสถียร hơn ซึ่งจะช่วยให้ความเร็วของคล็อกยังคงอยู่และขยายอายุการใช้งานของฮาร์ดแวร์ จุดสุดท้ายมีความสำคัญอย่างมากเมื่อคุณกำลังให้การสนับสนุนทรัพย์สินเป็นเวลาหกปี
เกี่ยวกับ UEC: ข้อกำหนดของ Ultra Ethernet Consortium ซึ่ง AMD ช่วยก่อตั้งและได้ถึง 1.0 ในปี 2025 ให้เราได้ฟาบริกที่เปิดกว้างและใช้ซิลิคอนจากผู้ขายหลายรายที่สามารถเทียบหรือเกิน InfiniBand ในเมตริกที่สำคัญสำหรับการฝึกอบรมแบบกระจาย เรื่องราวของค่าใช้จ่ายเป็นเรื่องโครงสร้าง อีเทอร์เน็ตมีผู้ขายซิลิคอนจากผู้ขายหลายรายที่แข่งขันกันในด้านราคา เทียบกับตัวเลือกที่มีแหล่งเดียวที่มีค่าพรีเมียมที่มีการบันทึกไว้ สำหรับไซต์ 100MW การเลือกเครือข่าย UEC-Ready แทนฟาบริกที่เป็นกรรมสิทธิ์เป็นการตัดสินใจ CAPEX ที่มีเกณฑ์เป็นตัวเลขสิบหลัก และข้อได้เปรียบในการดำเนินงานจะเพิ่มขึ้นเนื่องจากวิศวกรเครือข่ายของเรารู้จักอีเทอร์เน็ตอยู่แล้ว
เมื่อรวมกันแล้ว ตัวเลือกเหล่านี้ช่วยให้เราสามารถส่งมอบเศรษฐศาสตร์การฝึกอบรมที่ดีกว่าคลาวด์แบบดั้งเดิม ลูกค้าเห็น FLOPs ที่มีประสิทธิภาพสูงต่อดอลลาร์ เวลาในการทำงานที่คาดการณ์ได้มากขึ้นในการทำงานขนาดใหญ่ และเส้นทางที่ชัดเจนเมื่อโมเดลขยายขนาด สำหรับเรา มันหมายถึงโครงสร้างต้นทุนที่มีการป้องกันและความยืดหยุ่นในการเสนอราคา
คุณสามารถแบ่งปัน примерของวิธีที่ลูกค้ากำลังใช้ TensorWave เพื่อฝึกอบรมโมเดล AI ขนาดใหญ่?
ลูกค้าของ TensorWave ต้องการการประมวลผล AI ที่มีประสิทธิภาพสูงโดยไม่มีการขาดแคลน GPU การล็อคอินของซัพพลายเออร์หรือต้นทุนที่เพิ่มขึ้นอย่างไม่หยุดยั้ง TensorWave ให้คลาวด์ AMD ที่เปิดกว้าง ระบบที่พร้อมสำหรับการผลิต และให้โครงสร้างพื้นฐาน AI ที่สามารถเข้าถึงได้ ยืดหยุ่น และคุ้มค่าด้านต้นทุน
ตัวอย่างเช่น Modular เลือกที่จะใช้ MAX inference stack บนโครงสร้างพื้นฐาน GPU ของ AMD ของ TensorWave เนื่องจาก TensorWave มอบเศรษฐศาสตร์ในการทำงานที่ดีกว่าสำหรับการอนุมาน AI ขนาดใหญ่ โดยการทำงาน Modular’s MAX บนโครงสร้างพื้นฐานการประมวลผลของ AMD ของ TensorWave พวกเขาสามารถบรรลุการลดต้นทุนต่อล้านโทเค็นได้ถึง 70% การส่งผ่านที่เร็วขึ้น 57% และต้นทุนทั้งหมดที่ลดลงเมื่อเทียบกับกลุ่ม GPU อื่นๆ
ด้วยการครอบงำที่ยังคงดำเนินอยู่ของ Nvidia คุณเห็นโอกาสที่ยิ่งใหญ่ที่สุดสำหรับผู้ท้าทายเช่น TensorWave?
ในพื้นที่การประมวลผล AI ที่มีผู้เล่นหลักๆ เพียงไม่กี่ราย ความท้าทายที่ยิ่งใหญ่ที่สุดคือการบรรลุความเร็วในการเข้าสู่ตลาด การส่งมอบเทคโนโลยีล่าสุด และการให้การสนับสนุนที่ดีเยี่ยม ผู้ให้บริการคลาวด์ขนาดใหญ่มักจะให้ตัวเลือกที่หลากหลาย แต่ด้วยความยากลำบากในการให้การมุ่งเน้นหรือคำแนะนำส่วนบุคคลที่ลูกค้าต้องการ เพื่อที่จะ突破พื้นที่ที่มีผู้ครอบงำนี้ TensorWave มุ่งเน้นไปที่จุดแข็งของเรา ในขณะเดียวกันก็ร่วมมือกันเพื่อให้เทคโนโลยีที่ดีที่สุดและให้แน่ใจว่าลูกค้ามีตัวเลือกอื่น
โอกาสที่ยิ่งใหญ่ที่สุดสำหรับผู้ท้าทายการครอบงำโครงสร้างพื้นฐาน AI ของ Nvidia คือในระบบนิเวศที่เปิดกว้างและหน่วยความจำ ระบบนิเวศที่เปิดกว้างจะกำจัดการล็อคอินในระดับทั้งหมด (ฮาร์ดแวร์ อินเทอร์เช่น และซอฟต์แวร์) นอกจากนี้ หน่วยความจำที่จับคู่กับการฝึกอบรม/การอนุมานที่ได้รับการปรับให้เหมาะสมกับเครือข่ายยังพลิกการเปลี่ยนแปลงต้นทุน
เมื่อมองไปข้างหน้า五ปี คุณเห็นอนาคตของโครงสร้างพื้นฐาน AI และบทบาทของ TensorWave ในอนาคตอย่างไร?
เป็นเวลาหลายปีแล้วที่เป้าหมายในโครงสร้างพื้นฐาน AI คือการทำให้มันใช้งานได้ดี มีเสถียรภาพ และใช้งานง่าย ช่วงต่อไปจะเป็นเรื่องของสิ่งที่คุณสามารถส่งมอบได้บนพื้นฐานของสิ่งเหล่านั้น – บริการจัดการ AI-as-a-Service สิ่งใดก็ตามที่ช่วยให้ลูกค้าสามารถใช้งานและขยายขนาดได้ง่ายขึ้น
เรากำลังอยู่ในช่วงเริ่มต้นของการเปลี่ยนแปลงครั้งใหญ่ เทคโนโลยี AI ยังคงพัฒนา และตัวเลือกอื่นๆ เช่น AMD กำลังจะกลายเป็นไปได้มากขึ้น เมื่อสิ่งนี้เกิดขึ้น ลูกค้าจะเริ่มรู้สึกสบายใจมากขึ้นในการใช้งานที่มีขนาดใหญ่ และระบบนิเวศทั้งหมดจะเริ่มเปิดกว้างและเติบโต
ขอขอบคุณสำหรับการสัมภาษณ์ที่ดี ใครที่ต้องการเรียนรู้เพิ่มเติมเกี่ยวกับบริษัทโครงสร้างพื้นฐาน AI นี้ควรเยี่ยมชม TensorWave












