Rozhovory
Piotr Tomasik, spoluzakladatel a prezident TensorWave – rozhovorová série

Piotr Tomasik, spoluzakladatel a prezident TensorWave, je zkušený technologický podnikatel a výkonný ředitel AI infrastruktury s více než dvěma desetiletími zkušeností v oblasti AI, SaaS, cloud computingu, fintech a tvůrčí ekonomiky. Předtím, než v roce 2023 spoluzakládal TensorWave, spoluzakládal Influential, platformu pro marketing influencerů poháněnou AI, kterou později získala společnost Publicis za přibližně 500 milionů dolarů, kde působil jako technický ředitel, než přešel do poradenské role.
Během své kariéry Tomasik také založil nebo vedl společnosti, jako jsou Lets Rolo, On Guard Data a ActiveSide, zatímco zastával seniorní technologické pozice v CARD.com a Marker Trax. Kromě svých provozních rolí je generálním partnerem ve fondu 1864 Fund a spoluzakladatelem StartUp Vegas, kde aktivně podporuje startup ekosystém Las Vegas a vznikající technologický talent. Jako absolvent počítačových věd na UNLV a uznávaný technologický lídr se Tomasik stal známým tím, že pomohl TensorWave poziciovat jako rychle rostoucí společnost pro AI compute infrastrukturu zaměřenou na velké cloudové platformy s GPU poháněné AMD.
TensorWave je společnost pro AI infrastrukturu, která se zaměřuje na poskytování vysokovýkonného cloud computingu poháněného GPU AMD, čímž se позиcionuje jako alternativa k více uzavřeným AI ekosystémům. Založena v roce 2023 a se sídlem v Las Vegas, společnost buduje velké clusterů GPU optimalizované pro školení a nasazení pokročilých AI modelů, s důrazem na výkon, flexibilitu a nákladovou efektivitu. Díky využívání otevřených hardwarových a softwarových ekosystémů si TensorWave klade za cíl rozšířit přístup k výkonným AI compute zdrojům pro podniky, výzkumné pracovníky a vývojáře, umožňující škálovatelné AI úlohy bez omezení tradiční závislosti na dodavateli.
Nvidia dominuje většinu trhu s GPU – proč jste se rozhodli vsadit vše na AMD a jaké výhody tato volba přináší TensorWave a jeho zákazníkům?
Po spuštění ChatGPT vzrostla poptávka po AI raketově. GPU byly rychle vyčerpány a NVIDIA byla prakticky jedinou možností, pokud jste ji mohli získat, a pokud jste mohli zvládnout náklady. Tento nedostatek vyvolal obrovský zájem o alternativy. Nyní, když jsme za touto počáteční hysterií, existuje skutečná příležitost zpochybnit dominanci Nvidia s řešeními, která jsou dostupná, nákladově efektivní a snadno použitelná.
Jako startup vždy činíme obchodní rozhodnutí s pevným zaměřením a účelem. Proto jsme neexperimentovali s Nvidia a pokračovali ve výstavbě našich schopností na AMD. Další fáze naší společnosti spočívá v tom, že se budeme soustředit na tyto zaměřené schopnosti, aby kdokoli mohl snadno udělat něco smysluplného s AI. AMD je věrohodnou alternativou s reálnou výrobní kapacitou, otevřenou softwarovou pozicí a roadmapou pro moderní AI.
Jak se přístup TensorWave k AI infrastruktuře liší od tradičních poskytovatelů cloudových GPU?
Naše odlišení je přímé: jsme jediným cloudem výhradně pro AMD v měřítku, který se snaží obnovit volbu v AI compute, prolomit dominanci Nvidia a demokratizovat přístup. Ale také se jedná o naši etosu a závazek přinést skutečnou alternativu na trh. Především chceme dodávat výjimečnou infrastrukturu založenou na AMD v měřítku. Odtud budeme rozšiřovat naše špičkové služby na vrcholu – Modely jako služba, AI jako služba, dělají všechno jednodušší.
Jako cloud výhradně pro AMD máme softwarové zkušenosti speciálně navržené pro AMD od samého počátku. Tento zaměřený přístup nám umožňuje optimalizovat křemík, síť a software od začátku do konce, zajišťující, že týmy mohou škálovat, když potřebují.
Jakou roli hraje vaše strategické partnerství s AMD v růstu a odlišení TensorWave?
Je to zásadní. AMD investoval do TensorWave, pozval nás do spuštění MI300X Instinct a pokračujeme v úzké spolupráci na hardwaru, softwarovém umožnění a růstu ekosystému. Být cloudem výhradně pro AMD znamená, že můžeme pracovat rychleji s každou generací Instinct, a sloužit jako živý laboratorní test, který poskytuje, v měřítku, alternativy v našem trhu. Naše odlišení pouze pro AMD nám umožnilo pracovat v tempu, které není tak dosažitelné na trhu AI infrastruktury. Partnerství s AMD nám umožňuje rychle uzavírat mezery, dodávat první nové GPU a publikovat reálný výkon v měřítku.
Přístup k GPU zůstává hlavní překážkou pro AI týmy – jak TensorWave řeší tuto výzvu?
Řešíme tyto překážky nejprve prostřednictvím nezávislosti na dodavateli: stavěním na AMD, vyhýbáme se nejhorším omezením dodávek jiných výrobců čipů a předáváme dostupnost zákazníkům. Nezávislost na dodavateli prostřednictvím AMD zajišťuje, že naši zákazníci nejsou uvězněni ve stejné frontě jako všichni ostatní.
Mezery v ekosystému AI infrastruktury existují, protože tolik hráčů buduje podobná řešení, což vytváří mnoho překryvů. To často vyplývá z nedostatku povědomí o tom, co se děje na trhu. První krok k uzavření těchto mezer je pochopit, kdo dělá co, kde existují příležitosti pro spolupráci, kde může konkurence pohánět inovace a nakonec, jak může ekosystém jako celek zlepšit. Jedinečná mezera na trhu AI infrastruktury je výkon; i když jsou GPU dostupné, často není dostatek energie na podporu rostoucího počtu AI aplikací. Řešení těchto výzev zdrojů jsou našim klíčem k umožnění udržitelného růstu a inovací v letech, které přijdou.
Jak funkce, jako je přímé kapalinové chlazení a UEC-ready networking (Universal Ethernet Consortium), zvyšují výkon a nákladovou efektivitu?
Přímé kapalinové chlazení a UEC-ready networking jsou zásadní pro to, co činí moderní AI cloud ekonomicky životaschopný v měřítku, a obě jsou centrální pro to, jak jsme navrhli TensorWave.
U DLC: nejnovější generace urychlovačů, AMD MI355X a MI455X, běží na tepelných obálkách, které vzduch jednoduše nemůže zvládnout efektivně. Mluvíme o 1400W+ TDP na GPU. Přímé kapalinové chlazení odstraňuje teplo zdroje pomocí chladicí desky nebo ponořených designů, což dělá tři věci pro naše zákazníky. První, umožňuje podstatně vyšší hustotu stojanů, 120-300kW+ na stojan místo 30 až 40kW, což komprimuje stopu a snižuje náklady na megawatt nemovitostí a distribuci energie. Druhé, pohání PUE směrem k 1,1, ve srovnání s 1,4 až 1,5 pro starší vzduchem chlazené zařízení; v našem měřítku to překládá do desítek milionů dolarů v ročních úsporách energie. Třetí, a často podceňované, DLC drží křemík na nižších, stabilnějších teplotách spoje, což prodlužuje životnost hardwaru. Ten poslední bod má enormní význam, když jste podpsání šestiletého aktiva.
U UEC: specifikace Ultra Ethernet Consortium, kterou AMD pomohla založit a která dosáhla 1.0 v roce 2025, nám poskytuje otevřenou, merchant-silicon tkaninu, která splňuje nebo překonává InfiniBand na metrikách, které skutečně záleží pro distribuované školení. Latence kolektivů, efektivní šířka pásma pod soutěží a škálovací chování za prahem 100 000 GPU. Příběh nákladů je strukturální. Ethernet má půl tuctu věrohodných merchant-silicon výrobců, kteří soutěží o cenu, ve srovnání s jedinou alternativou, která nese dobře zdokumentovanou přirážku. Pro 100MW lokalitu je výběr UEC-ready networking místo proprietární tkaniny obvykle devítimístné rozhodnutí CAPEX, a provozní výhody se sčítají, protože naši síťoví inženýři již znají Ethernet.
Vzato dohromady, tyto volby nám umožňují dodávat lepší ekonomiku školení než legacy cloudy. Zákazníci vidí vyšší efektivní FLOPs na dolar, předvídatelnější časy kroků u velkých úloh a jasnou dráhu, jak modely škálovat. Pro nás to znamená více obranitelnou nákladovou strukturu a flexibilitu nabízet skutečně konkurenceschopné sazby.
Můžete sdílet příklady toho, jak zákazníci využívají TensorWave k školení velkých AI modelů?
Zákazníci TensorWave potřebují vysokovýkonný AI compute bez nedostatku GPU, uzamčení dodavatele nebo nekontrolovatelných nákladů. TensorWave poskytuje exkluzivní cloud AMD – otevřený, optimalizovaný pro paměť a připravený pro produkci, což poskytuje týmům škálovatelnou AI infrastrukturu, která je dostupná, flexibilní a nákladově efektivní.
Například, Modular zvolil spustit svůj MAX inference stack na infrastruktuře GPU AMD TensorWave, protože TensorWave dodává podstatně lepší ekonomiku nákladů a výkonu pro large-scale AI inference. Spuštěním MAX na compute AMD TensorWave dosáhli až o 70 % nižších nákladů na milion tokenů, 57 % rychlejší propustnosti a nižších celkových nákladů ve srovnání s jinými GPU stacky.
S pokračující dominancí Nvidia, kde vidíte největší příležitosti pro výzvy, jako je TensorWave?
V prostoru AI compute, který dominuje několik hlavních hráčů, největší výzvy spočívají v dosažení rychlosti na trh, dodání nejnovější technologie a poskytnutí výjimečné podpory. Hyperscalers často nabízejí širokou škálu možností, ale bojují s tím, aby poskytli zaměření nebo personalizovanou podporu, kterou zákazníci potřebují. Abychom prolomili tento dominovaný prostor, TensorWave se soustředí na naše silné stránky, zatímco spolupracujeme, abychom poskytli nejlepší technologii possível a zajistili, aby zákazníci měli alternativní možnosti.
Dvě největší příležitosti pro výzvy dominance Nvidia v AI infrastruktuře jsou v otevřených ekosystémech a paměti. Otevřené ekosystémy eliminují uzamčení na každé úrovni (hardware, interconnect a software). Kromě toho, paměť v kombinaci se síťově optimalizovaným školením/inferencí otočí křivku nákladů.
Pohledem pět let dopředu, jak si představujete budoucnost AI infrastruktury a roli TensorWave v ní?
Po mnoho let byl cílem AI infrastruktury udělat ji dobrý, stabilní a snadno použitelný. Další fáze bude o tom, co můžete dodat na vrcholu – spravované služby, AI jako služba, cokoliv, co pomáhá zákazníkům nasadit a škálovat více snadno.
Jsme na počátku velké transformace. AI technologie pokračuje v pokroku a alternativy, jako je AMD, se stávají stále více životaschopnými. Jak se to děje, zákazníci se stanou více pohodlnými s nasazením na velkém měřítku a celý ekosystém začne se otevírat a růst.
Děkuji za skvělý rozhovor, kdokoli, kdo chce se dozvědět více o této inovativní AI infrastrukturní společnosti, by měl navštívit TensorWave.












