Wywiady
Piotr Tomasik, współzałożyciel i prezes TensorWave – seria wywiadów

Piotr Tomasik, współzałożyciel i prezes TensorWave, jest doświadczonym przedsiębiorcą technologicznym i wykonawcą infrastruktury AI z ponad dwudziestoletnim doświadczeniem, obejmującym AI, SaaS, chmurę obliczeniową, fintech i gospodarkę twórców. Przed współzałożeniem TensorWave w 2023 roku współzałożył Influential, platformę marketingu influencerów opartą na AI, która później została przejęta przez Publicis za około 500 milionów dolarów, gdzie pełnił funkcję CTO, zanim przeszedł na stanowisko doradcy.
W trakcie swojej kariery Tomasik założył lub kierował firmami, w tym Lets Rolo, On Guard Data i ActiveSide, oraz pełnił stanowiska techniczne w CARD.com i Marker Trax. Oprócz swoich ról operacyjnych jest partnerem generalnym w 1864 Fund i współzałożycielem StartUp Vegas, gdzie aktywnie wspiera ekosystem startupów w Las Vegas i wschodzący talent technologiczny. Jako absolwent informatyki Uniwersytetu Nevady w Las Vegas i uznany lider technologiczny, Tomasik stał się znany z pomocy w pozycjonowaniu TensorWave jako szybko rosnącej firmy infrastruktury obliczeniowej AI, skupiającej się na dużych platformach chmury GPU z napędem AMD.
TensorWave jest firmą infrastruktury AI, która koncentruje się na dostarczaniu wysokowydajnych usług chmury obliczeniowej z napędem AMD GPU, pozycjonując się jako alternatywa dla bardziej zamkniętych ekosystemów AI. Założona w 2023 roku i mająca siedzibę w Las Vegas, firma buduje duże klastry GPU zoptymalizowane do szkolenia i wdrażania zaawansowanych modeli AI, z naciskiem na wydajność, elastyczność i efektywność kosztową. Wykorzystując otwarte ekosystemy sprzętu i oprogramowania, TensorWave ma na celu poszerzenie dostępu do potężnych zasobów obliczeniowych AI dla przedsiębiorstw, badaczy i deweloperów, umożliwiając skalowalne obciążenia AI bez ograniczeń tradycyjnego blokowania dostawców.
Nvidia dominuje większość rynku GPU – dlaczego zdecydowałeś się postawić wszystko na AMD, i jakie korzyści daje to wybór TensorWave i jego klientom?
Po premierze ChatGPT popyt na AI gwałtownie wzrósł. GPU zostały szybko wyprzedane, a NVIDIA była praktycznie jedyną opcją, jeśli w ogóle można ją było dostać, i jeśli można było pozwolić sobie na koszt. Ten brak wywołał ogromne zainteresowanie alternatywami. Teraz, gdy minął początkowy szał, jest prawdziwa okazja, by wyzwolić dominację Nvidii z pomocą rozwiązań, które są dostępne, efektywne kosztowo i łatwe w użyciu.
Jako startup, zawsze podejmowaliśmy decyzje biznesowe z silnym nastawieniem i celem. Dlatego nie eksperymentowaliśmy z Nvidią i kontynuowaliśmy rozwijanie naszych możliwości na AMD. Następna faza naszej firmy dotyczy wykorzystania tych ukierunkowanych możliwości, aby każdy mógł wskoczyć i zrobić coś znaczącego z AI. AMD to wiarygodna alternatywa z prawdziwą skalą produkcyjną, otwartą postawą oprogramowania i mapą pamięci dla nowoczesnego AI.
Jak podejście TensorWave do infrastruktury AI różni się od tradycyjnych dostawców chmury GPU?
Nasza różnicowanie jest proste: jesteśmy jedyną chmurą wyłącznie na AMD w skali, która stara się przywrócić wybór w obliczeniach AI, złamać dominację Nvidii i udemokratyzować dostęp. Ale to także nasza etyka i zaangażowanie w dostarczanie prawdziwej alternatywy na rynek. Przede wszystkim chcemy dostarczyć wyjątkową infrastrukturę opartą na AMD w skali. Od tego momentu będziemy rozszerzać się na usługi najwyższej klasy na górze – Modele jako usługa, AI jako usługa, czyniąc wszystko prostszym.
Jako chmura wyłącznie na AMD, mamy doświadczenie z oprogramowaniem opracowanym specjalnie dla AMD od samego początku. To nastawienie pozwala nam zoptymalizować krzem, sieć i oprogramowanie od końca do końca, zapewniając, że zespoły mogą skalować, gdy potrzebują.
Jaką rolę odgrywa wasze partnerstwo strategiczne z AMD w rozwoju i różnicowaniu TensorWave?
Jest to podstawowe. AMD zainwestowało w TensorWave, zaprosiło nas do udziału w premierze MI300X Instinct i nadal ściśle współpracujemy w zakresie sprzętu, oprogramowania i rozwoju ekosystemu. Bycie chmurą wyłącznie na AMD oznacza, że możemy poruszać się szybko z każdą generacją Instinct, i służyć jako żywe laboratorium, które zapewnia, w skali, alternatywy w naszym rynku. Nasze różnicowanie wyłącznie na AMD pozwoliło nam pracować w tempie, które nie jest tak osiągalne na rynku infrastruktury AI. Partnerstwo z AMD pozwala nam szybko zamykać luki, wysyłać pierwsze nowe GPU i publikować rzeczywiste wyniki w skali.
Dostęp do GPU pozostaje główną przeszkodą dla zespołów AI – jak TensorWave rozwiązuje ten problem?
Rozwiązujemy te przeszkody najpierw poprzez niezależność dostaw: budując na AMD, unikamy najgorszych ograniczeń dostaw innych producentów chipów i przekazujemy dostępność naszym klientom.
Luki w ekosystemie infrastruktury AI istnieją, ponieważ wiele podmiotów buduje podobne rozwiązania, tworząc wiele nakładających się elementów. Często wynika to z braku świadomości o tym, co dzieje się na rynku. Pierwszym krokiem do zamykania tych luk jest zrozumienie, kto robi co, gdzie są możliwości współpracy, gdzie konkurencja może napędzać innowacje, i ostatecznie, jak ekosystem może się poprawić jako całość. Jedną z unikalnych luk w rynku infrastruktury AI jest energia; nawet jeśli GPU są dostępne, często brakuje energii, aby wspierać rosnącą liczbę aplikacji AI. Rozwiązanie tych wyzwań zasobowych jest naszym kluczem do umożliwienia zrównoważonego wzrostu i innowacji w nadchodzących latach.
Jak funkcje takie jak bezpośrednie chłodzenie cieczą i sieć UEC (Universal Ethernet Consortium) poprawiają wydajność i efektywność kosztową?
Bezpośrednie chłodzenie cieczą i sieć UEC są podstawowe dla tego, co sprawia, że nowoczesna chmura AI jest ekonomicznie uzasadniona w skali, i oba są centralne dla tego, jak zaprojektowaliśmy TensorWave.
Co do DLC: najnowsze generacje przyspieszaczy, AMD MI355X i MI455X, pracują w obrębie termicznym, który powietrze nie może obsłużyć wydajnie. Mówimy o 1400W+ TDP na GPU. Bezpośrednie chłodzenie cieczą usuwa ciepło z źródła za pomocą płyty chłodzącej lub konstrukcji zanurzeniowej, co robi trzy rzeczy dla naszych klientów. Po pierwsze, umożliwia znacznie większą gęstość stojaków, 120-300 kW+ na stojak zamiast 30 do 40 kW, co kompresuje powierzchnię i obniża koszty megawata, nieruchomości i dystrybucji energii. Po drugie, napędza PUE w kierunku 1,1, w porównaniu z 1,4 do 1,5 dla tradycyjnych obiektów chłodzonych powietrzem; w naszej skali przekłada się to na dziesiątki milionów dolarów oszczędności rocznie. Po trzecie, i często niedoceniane, DLC utrzymuje krzem na niższych, bardziej stabilnych temperaturach, co zachowuje trwałe stawki zegara podczas długich sesji szkoleniowych i wydłuża żywotność sprzętu. Ten ostatni punkt ma ogromne znaczenie, gdy podpisujesz sześcioletnią umowę.
Co do UEC: specyfikacja Ultra Ethernet Consortium, której AMD pomogło założyć i która osiągnęła wersję 1.0 w 2025 roku, daje nam otwarty, merchant-silicon fabrykę, która spełnia lub przewyższa InfiniBand w metrykach, które naprawdę mają znaczenie dla rozproszonego szkolenia. Opowieść o kosztach jest strukturalna. Ethernet ma pół tuzina wiarygodnych dostawców krzemowych, którzy konkurują o cenę, w porównaniu z alternatywą jednego źródła, która niesie znany premię. Dla 100-megawatowego obiektu wybór sieci UEC zamiast fabryki własnej to zwykle decyzja o kapitale wydatkowym na dziewięć cyfr, a korzyści operacyjne się kumulują, ponieważ nasi inżynierowie sieci już znają Ethernet.
Wzięte razem, te wybory pozwalają nam dostarczyć lepszą ekonomię szkolenia niż tradycyjne chmury. Klienci widzą wyższe efektywne FLOPs za dolar, szybsze czasy kroków w dużych zadaniach i klarowną drogę, gdy modele się skalują. Dla nas oznacza to bardziej defensywną strukturę kosztów i elastyczność, aby oferować naprawdę konkurencyjne karty stawek.
Czy możesz podzielić się przykładami, jak klienci wykorzystują TensorWave do szkolenia dużych modeli AI?
Klienci TensorWave potrzebują wysokowydajnych obliczeń AI bez niedoboru GPU, blokowania dostawców lub kosztów, które wymykają się spod kontroli. TensorWave dostarcza wyłączną chmurę AMD – otwartą, zoptymalizowaną pod kątem pamięci i gotową do produkcji, co daje zespołom skalowalną infrastrukturę AI, która jest dostępna, elastyczna i efektywna kosztowo.
Na przykład, Modular wybrał uruchomienie swojego stosu inferencji MAX na infrastrukturze GPU TensorWave z napędem AMD, ponieważ TensorWave dostarcza znacznie lepszą ekonomię kosztów i wydajności dla dużych inferencji AI. Dzięki uruchomieniu MAX Modular na infrastrukturze obliczeniowej AMD TensorWave osiąga do 70% niższy koszt na milion tokenów, 57% szybszy przepływ i mniejszy ogólny koszt w porównaniu z innymi stosami GPU.
Z dominacją Nvidii, gdzie widzisz największe możliwości dla wyzwań, takich jak TensorWave?
W przestrzeni obliczeń AI, która jest zdominowana przez kilku głównych graczy, największymi wyzwaniami są osiągnięcie szybkości wejścia na rynek, dostarczenie najnowszej technologii i zapewnienie wyjątkowego wsparcia. Hyperscalers często oferują szeroki zakres opcji, ale mają trudności z zapewnieniem focusu lub personalizowanego przewodnictwa, którego potrzebują klienci. Aby przełamać ten zdominowany rynek, TensorWave koncentruje się na naszych siłach, jednocześnie współpracując, aby dostarczyć najlepszą możliwą technologię i zapewnić, że klienci mają alternatywne opcje.
Dwie największe możliwości dla wyzwań dominacji Nvidii w infrastrukturze AI to otwarte ekosystemy i pamięć. Otwarte ekosystemy eliminują blokowanie na każdym poziomie (sprzęt, łączność i oprogramowanie). Dodatkowo, pamięć w połączeniu z siecią zoptymalizowaną do szkolenia / inferencji odwraca krzywą kosztów.
Spójrz pięć lat do przodu, jak widzisz przyszłość infrastruktury AI i rolę TensorWave w niej?
Przez lata celem infrastruktury AI było to, aby było dobre, stabilne i łatwe w użyciu. Następna faza będzie dotyczyć tego, co można dostarczyć na górze – usług zarządzanych, AI jako usługi, czegokolwiek, co pomoże klientom wdrożyć i skalować łatwiej.
Jesteśmy na początku wielkiej transformacji. Technologia AI ciągle się rozwija, a alternatywy takie jak AMD stają się coraz bardziej wiarygodne. Gdy to się dzieje, klienci staną się bardziej komfortowi z wdrożeniem ich w skali, a cały ekosystem zacznie się otwierać i rozwijać.
Dziękujemy za wspaniały wywiad, każdy, kto chce dowiedzieć się więcej o tej innowacyjnej firmie infrastruktury AI, powinien odwiedzić TensorWave.












