Connect with us

Piotr Tomasik, Đồng sáng lập và Chủ tịch của TensorWave – Loạt phỏng vấn

Phỏng vấn

Piotr Tomasik, Đồng sáng lập và Chủ tịch của TensorWave – Loạt phỏng vấn

mm

Piotr Tomasik, Đồng sáng lập và Chủ tịch của TensorWave, là một doanh nhân công nghệ kỳ cựu và giám đốc cơ sở hạ tầng AI với hơn hai thập kỷ kinh nghiệm bao gồm AI, SaaS, điện toán đám mây, fintech và nền kinh tế sáng tạo. Trước khi đồng sáng lập TensorWave vào năm 2023, ông đã đồng sáng lập Influential, một nền tảng tiếp thị người ảnh hưởng được hỗ trợ bởi AI sau đó được Publicis mua lại với giá khoảng 500 triệu đô la, nơi ông từng giữ vị trí CTO trước khi chuyển sang vai trò tư vấn.

Trong suốt sự nghiệp của mình, Tomasik cũng đã thành lập hoặc lãnh đạo các công ty bao gồm Lets Rolo, On Guard Data và ActiveSide, đồng thời giữ các vị trí công nghệ cao cấp tại CARD.com và Marker Trax. Ngoài các vai trò hoạt động, ông là Đối tác Tổng hợp tại 1864 Fund và là đồng sáng lập của StartUp Vegas, nơi ông tích cực hỗ trợ hệ sinh thái khởi nghiệp Las Vegas và tài năng công nghệ mới nổi. Là một sinh viên tốt nghiệp khoa học máy tính của UNLV và là một nhà lãnh đạo công nghệ được công nhận, Tomasik đã trở thành người được biết đến với việc giúp TensorWave trở thành một công ty cơ sở hạ tầng AI tính toán nhanh chóng với trọng tâm vào các nền tảng đám mây GPU lớn được hỗ trợ bởi bộ tăng tốc AMD.

TensorWave là một công ty cơ sở hạ tầng AI tập trung vào việc cung cấp điện toán đám mây hiệu suất cao được hỗ trợ bởi GPU AMD, tự vị trí mình như một sự thay thế cho các hệ sinh thái AI đóng hơn. Được thành lập vào năm 2023 và có trụ sở tại Las Vegas, công ty xây dựng các cụm GPU lớn được tối ưu hóa cho việc đào tạo và triển khai các mô hình AI tiên tiến, với trọng tâm vào hiệu suất, linh hoạt và hiệu quả về chi phí. Bằng cách tận dụng các hệ sinh thái phần cứng và phần mềm mở, TensorWave nhằm mục đích mở rộng khả năng tiếp cận các tài nguyên tính toán AI mạnh mẽ cho các doanh nghiệp, nhà nghiên cứu và nhà phát triển, cho phép các công việc AI có thể mở rộng mà không bị hạn chế bởi khóa_vendor truyền thống.

Nvidia chiếm ưu thế trong hầu hết thị trường GPU – tại sao bạn quyết định đi tất cả vào AMD và những lợi thế mà lựa chọn đó mang lại cho TensorWave và khách hàng của nó?

Sau khi ra mắt ChatGPT, nhu cầu về AI tăng vọt. GPU đã được mua nhanh chóng và NVIDIA基本 là lựa chọn duy nhất nếu bạn có thể nhận được nó và nếu bạn có thể xử lý chi phí. Sự khan hiếm đó đã tạo ra một sự quan tâm lớn đến các giải pháp thay thế. Bây giờ rằng chúng ta đã vượt qua sự cường điệu ban đầu, có một cơ hội thực sự để thách thức sự thống trị của Nvidia với các giải pháp có thể tiếp cận, tiết kiệm chi phí và dễ sử dụng.

Là một công ty khởi nghiệp, chúng tôi đã đưa ra các quyết định kinh doanh với một trọng tâm và mục đích mạnh mẽ. Đó là lý do tại sao chúng tôi đã không thử nghiệm với Nvidia và chúng tôi đã tiếp tục xây dựng các khả năng của mình trên AMD. Giai đoạn tiếp theo của công ty chúng tôi là về việc tận dụng các khả năng tập trung này để bất kỳ ai cũng có thể tham gia và làm điều gì đó có ý nghĩa với AI. AMD là một giải pháp thay thế có uy tín với quy mô sản xuất thực sự, một tư thế phần mềm mở và một bản đồ đường dẫn bộ nhớ cho AI hiện đại.

Làm thế nào cách tiếp cận cơ sở hạ tầng AI của TensorWave khác với các nhà cung cấp đám mây GPU truyền thống?

Sự khác biệt của chúng tôi là thẳng thắn: chúng tôi là đám mây AMD độc quyền duy nhất ở quy mô, nhằm khôi phục lại sự lựa chọn trong tính toán AI, phá vỡ sự thống trị của Nvidia và dân chủ hóa khả năng tiếp cận. Nhưng nó cũng là về đạo đức và cam kết của chúng tôi trong việc mang lại một giải pháp thay thế thực sự cho thị trường. Trước hết và quan trọng nhất, chúng tôi muốn cung cấp cơ sở hạ tầng AMD исключnel tại quy mô. Từ đó, chúng tôi sẽ mở rộng sang các dịch vụ hàng đầu trên đó – Các mô hình như một dịch vụ, AI như một dịch vụ, làm cho mọi thứ trở nên đơn giản hơn.

Là một đám mây AMD độc quyền, chúng tôi có kinh nghiệm phần mềm được xây dựng đặc biệt cho AMD từ ngày đầu tiên. Sự tập trung này cho phép chúng tôi tối ưu hóa silicon, mạng và phần mềm từ đầu đến cuối, đảm bảo rằng các đội có thể mở rộng khi cần.

Vai trò của quan hệ đối tác chiến lược với AMD trong sự phát triển và khác biệt của TensorWave là gì?

Điều đó là cơ bản. AMD đã đầu tư vào TensorWave, mời chúng tôi tham gia vào việc ra mắt MI300X Instinct và chúng tôi tiếp tục hợp tác chặt chẽ về phần cứng, kích hoạt phần mềm và tăng trưởng hệ sinh thái. Là một đám mây AMD độc quyền có nghĩa là chúng tôi có thể di chuyển nhanh chóng với mỗi thế hệ Instinct và phục vụ như một phòng thí nghiệm sống cung cấp, ở quy mô, các giải pháp thay thế trong thị trường của chúng tôi. Sự khác biệt AMD độc quyền của chúng tôi đã cho phép chúng tôi làm việc với một tốc độ không thể đạt được trong thị trường cơ sở hạ tầng AI. Quan hệ đối tác của họ cho phép chúng tôi đóng các khoảng trống nhanh chóng, giao hàng đầu tiên trên các GPU mới và xuất bản hiệu suất thực tại quy mô.

Khả năng tiếp cận GPU vẫn là một nút thắt chính cho các đội AI – TensorWave đang giải quyết thách thức này như thế nào?

Chúng tôi đang giải quyết các nút thắt này trước tiên thông qua sự độc lập về cung cấp: bằng cách xây dựng trên AMD, chúng tôi tránh được sự khan hiếm của các nhà sản xuất chip khác và chuyển khả năng tiếp cận cho khách hàng.

Các khoảng trống trong hệ sinh thái cơ sở hạ tầng AI tồn tại vì nhiều người chơi đang xây dựng các giải pháp tương tự, tạo ra nhiều sự chồng chéo. Điều đó thường đến từ sự thiếu nhận thức về những gì đang xảy ra trên thị trường. Bước đầu tiên để đóng các khoảng trống này là hiểu ai đang làm gì, ở đâu có cơ hội hợp tác, ở đâu cạnh tranh có thể thúc đẩy đổi mới và cuối cùng, làm thế nào hệ sinh thái có thể cải thiện như một toàn thể. Một khoảng trống duy nhất trong thị trường cơ sở hạ tầng AI là quyền lực; ngay cả khi GPU có sẵn, thường không có đủ năng lượng để hỗ trợ số lượng ngày càng tăng của các ứng dụng AI. Giải quyết những thách thức về tài nguyên này là chìa khóa của chúng tôi để kích hoạt sự tăng trưởng và đổi mới bền vững trong những năm tới.

Làm thế nào các tính năng như làm mát chất lỏng trực tiếp và mạng UEC sẵn sàng (Tổ chức Ethernet Universial) tăng cường hiệu suất và hiệu quả về chi phí?

Làm mát chất lỏng trực tiếp và mạng UEC sẵn sàng là cơ bản cho những gì làm cho một đám mây AI hiện đại có thể hoạt động kinh tế ở quy mô và cả hai đều là trung tâm của cách chúng tôi đã thiết kế TensorWave.

Về DLC: các thế hệ tăng tốc mới nhất, AMD’s MI355X và MI455X, chạy ở các vỏ nhiệt mà không khí đơn giản không thể xử lý hiệu quả. Chúng tôi đang nói về 1400W+ TDP mỗi GPU. Làm mát chất lỏng trực tiếp loại bỏ nhiệt tại nguồn thông qua thiết kế tấm lạnh hoặc ngâm, điều này làm ba việc cho khách hàng của chúng tôi. Đầu tiên, nó cho phép mật độ rack đáng kể cao hơn, 120-300kW+ mỗi rack thay vì 30 đến 40kW, điều này nén footprint và cắt giảm chi phí phân phối điện và bất động sản mỗi megawatt. Thứ hai, nó thúc đẩy PUE đến 1,1, so với 1,4 đến 1,5 cho các cơ sở legacy làm mát bằng không khí; ở quy mô của chúng tôi, điều đó dịch sang hàng chục triệu đô la tiết kiệm tiền điện mỗi năm. Thứ ba, và thường bị đánh giá thấp, DLC giữ silicon ở nhiệt độ thấp hơn, ổn định hơn, điều này bảo tồn tốc độ đồng hồ bền vững trong các lần đào tạo dài và kéo dài tuổi thọ hữu ích của phần cứng. Điểm cuối cùng rất quan trọng khi bạn đang bảo lãnh một tài sản sáu năm.

Về UEC: tiêu chuẩn Ultra Ethernet Consortium, mà AMD đã giúp thành lập và đã đạt 1,0 vào năm 2025, cung cấp cho chúng tôi một vải thương mại mở, đáp ứng hoặc vượt quá InfiniBand về các chỉ số thực sự quan trọng đối với đào tạo phân tán. Câu chuyện chi phí là cấu trúc. Ethernet có nửa tá nhà cung cấp silicon thương mại cạnh tranh về giá, so với một giải pháp thay thế nguồn duy nhất mang theo một khoản phí cao đã được ghi nhận. Đối với một trang web 100MW, việc chọn mạng UEC sẵn sàng thay vì vải độc quyền là một quyết định CAPEX chín chữ số và các lợi thế hoạt động được tổng hợp vì các kỹ sư mạng của chúng tôi đã biết Ethernet.

Cùng nhau, những lựa chọn này cho phép chúng tôi cung cấp kinh tế đào tạo tốt hơn so với các đám mây legacy. Khách hàng nhìn thấy FLOPs hiệu quả cao hơn mỗi đô la, thời gian bước dự đoán hơn trên các công việc lớn và một đường băng rõ ràng khi các mô hình mở rộng. Đối với chúng tôi, chúng có nghĩa là một cấu trúc chi phí có thể bảo vệ và sự linh hoạt để cung cấp các thẻ giá cạnh tranh thực sự.

Có thể chia sẻ các ví dụ về cách khách hàng đang sử dụng TensorWave để đào tạo các mô hình AI quy mô lớn?

Khách hàng của TensorWave cần tính toán AI hiệu suất cao mà không có sự khan hiếm GPU, khóa_vendor hoặc chi phí vượt quá. TensorWave cung cấp đám mây AMD độc quyền – mở, tối ưu hóa bộ nhớ và sẵn sàng sản xuất, điều này mang lại cho các đội cơ sở hạ tầng AI có thể mở rộng, linh hoạt và tiết kiệm chi phí.

Ví dụ, Modular đã chọn chạy ngăn xếp suy luận MAX trên cơ sở hạ tầng GPU AMD của TensorWave vì TensorWave cung cấp các kinh tế hiệu suất chi phí tốt hơn đáng kể cho suy luận AI quy mô lớn. Bằng cách chạy Modular’s MAX trên cơ sở tính toán AMD của TensorWave, họ đạt được chi phí thấp hơn 70% mỗi triệu token, 57% hiệu suất cao hơn và chi phí thấp hơn so với các ngăn xếp GPU khác.

Với sự thống trị liên tục của Nvidia, đâu là những cơ hội lớn nhất cho các thách thức như TensorWave?

Trong không gian tính toán AI được thống trị bởi một số người chơi lớn, những thách thức lớn nhất là đạt được tốc độ thị trường, cung cấp công nghệ mới nhất và cung cấp hỗ trợ xuất sắc. Các nhà cung cấp dịch vụ lớn thường cung cấp một loạt các lựa chọn, nhưng gặp khó khăn trong việc cung cấp sự tập trung hoặc hướng dẫn cá nhân hóa mà khách hàng cần. Để phá vỡ không gian thống trị này, TensorWave tập trung vào các điểm mạnh của mình, đồng thời hợp tác để cung cấp công nghệ tốt nhất có thể và đảm bảo khách hàng có các lựa chọn thay thế.

Hai cơ hội lớn nhất cho các thách thức đối với sự thống trị cơ sở hạ tầng AI của Nvidia là trong các hệ sinh thái mở và bộ nhớ. Các hệ sinh thái mở loại bỏ khóa tại mọi lớp (phần cứng, kết nối và phần mềm). Ngoài ra, bộ nhớ kết hợp với đào tạo / suy luận được tối ưu hóa mạng đảo ngược đường cong chi phí.

Nhìn năm năm tới, bạn hình dung tương lai của cơ sở hạ tầng AI và vai trò của TensorWave trong đó như thế nào?

Trong nhiều năm, mục tiêu trong cơ sở hạ tầng AI là làm cho nó tốt, làm cho nó ổn định và làm cho nó dễ sử dụng. Giai đoạn tiếp theo sẽ là về những gì bạn có thể cung cấp trên đó – các dịch vụ được quản lý, AI như một dịch vụ, bất cứ điều gì giúp khách hàng triển khai và mở rộng quy mô dễ dàng hơn.

Chúng tôi đang ở giai đoạn đầu của một sự chuyển đổi lớn. Công nghệ AI tiếp tục phát triển và các giải pháp thay thế như AMD đang trở nên khả thi hơn và hơn. Khi điều đó xảy ra, khách hàng sẽ trở nên thoải mái hơn khi triển khai chúng ở quy mô và toàn bộ hệ sinh thái sẽ bắt đầu mở ra và phát triển.

Cảm ơn vì cuộc phỏng vấn tuyệt vời, bất kỳ ai muốn tìm hiểu thêm về công ty cơ sở hạ tầng AI sáng tạo này nên truy cập TensorWave.

Antoine là một nhà lãnh đạo có tầm nhìn và là đối tác sáng lập của Unite.AI, được thúc đẩy bởi một niềm đam mê không ngừng nghỉ để định hình và thúc đẩy tương lai của AI và robot. Là một doanh nhân liên tục, ông tin rằng AI sẽ gây ra sự gián đoạn cho xã hội giống như điện, và thường bị bắt gặp nói về tiềm năng của các công nghệ gây gián đoạn và AGI.
Như một futurist, ông dành để khám phá cách những đổi mới này sẽ định hình thế giới của chúng ta. Ngoài ra, ông là người sáng lập của Securities.io, một nền tảng tập trung vào đầu tư vào các công nghệ tiên tiến đang định nghĩa lại tương lai và thay đổi toàn bộ lĩnh vực.