Connect with us

Piotr Tomasik, Co-Founder en President van TensorWave – Interview Serie

Interviews

Piotr Tomasik, Co-Founder en President van TensorWave – Interview Serie

mm

Piotr Tomasik, Co-Founder en President van TensorWave, is een veteran technology ondernemer en AI-infrastructuur executive met meer dan twee decennia ervaring in AI, SaaS, cloud computing, fintech en de creator economie. Voordat hij TensorWave in 2023 co-foundingde, co-foundingde hij Influential, een AI-gepowered influencer marketing platform dat later door Publicis werd overgenomen voor ongeveer $500 miljoen, waar hij als CTO diende voordat hij overstapte naar een adviserende rol.

In zijn carrière heeft Tomasik ook bedrijven opgericht of geleid, waaronder Lets Rolo, On Guard Data en ActiveSide, terwijl hij senior technologieposities bekleedde bij CARD.com en Marker Trax. Naast zijn operationele rollen is hij een General Partner bij 1864 Fund en een co-founder van StartUp Vegas, waar hij actief de startup-ecosysteem van Las Vegas en de opkomende technologie-talenten ondersteunt. Als afgestudeerde in computerwetenschappen van de UNLV en erkend technologie-leider, is Tomasik bekend geworden door TensorWave te positioneren als een snelgroeiend AI-compute-infrastructuurbedrijf dat zich richt op grote schaal GPU-cloudplatforms die worden aangedreven door AMD-accelerators.

TensorWave is een AI-infrastructuurbedrijf dat zich richt op het leveren van high-performance cloud computing die wordt aangedreven door AMD-GPU’s, en positioneert zich als een alternatief voor meer gesloten AI-ecosystemen. Opgericht in 2023 en gevestigd in Las Vegas, bouwt het bedrijf grote schaal GPU-clusters die geoptimaliseerd zijn voor het trainen en implementeren van geavanceerde AI-modellen, met een focus op prestaties, flexibiliteit en kostenefficiëntie. Door het gebruik van open hardware- en software-ecosystemen, streeft TensorWave ernaar om de toegang tot krachtige AI-compute-bronnen voor ondernemingen, onderzoekers en ontwikkelaars te verbreden, waardoor schaalbare AI-werklasten mogelijk worden zonder de beperkingen van traditionele vendor lock-in.

Nvidia domineert de meeste van de GPU-markt—waarom hebt u besloten om volledig in te zetten op AMD, en wat zijn de voordelen van die keuze voor TensorWave en zijn klanten?

Na de lancering van ChatGPT, steeg de vraag naar AI enorm. GPU’s werden snel opgekocht en NVIDIA was bijna de enige optie, als je het al kon krijgen, en als je de kosten kon betalen. Die schaarste zorgde voor een enorme interesse in alternatieven. Nu we voorbij de initiële hype zijn, is er een echte kans om Nvidia’s dominantie uit te dagen met oplossingen die toegankelijk, kostenefficiënt en gemakkelijk te gebruiken zijn.

Als startup hebben we altijd zakelijke beslissingen genomen met een sterke focus en doel. Daarom hebben we nooit geëxperimenteerd met Nvidia en zijn we doorgegaan met het uitbouwen van onze mogelijkheden op AMD. De volgende fase van ons bedrijf gaat over het verder ontwikkelen van die gefocuste mogelijkheden, zodat iedereen kan instappen en iets betekenisvolks kan doen met AI. AMD is een geloofwaardig alternatief met echte productieschaal, een open software-houding en een memory-first-roadmap voor moderne AI.

Hoe verschilt TensorWaves aanpak van AI-infrastructuur van traditionele GPU-cloudproviders?

Ons onderscheid is rechttoe rechtaan: we zijn de enige AMD-exclusieve cloud op grote schaal, die erop uit is om keuze te herstellen in AI-compute, Nvidia’s dominantie te doorbreken en toegang te democratiseren. Maar het gaat ook over onze ethos en toewijding om een echte alternatief te bieden op de markt. Allereerst willen we uitzonderlijke AMD-gebaseerde infrastructuur op grote schaal leveren. Van daaruit zullen we ons uitbreiden naar top-tier-diensten op basis daarvan – Models-as-a-Service, AI-as-a-Service, waardoor alles eenvoudiger wordt.

Als een all-AMD-cloud hebben we software-ervaring die specifiek is ontwikkeld voor AMD vanaf dag één. Deze focus laat ons toe om silicon, netwerken en software eind-tot-eind te optimaliseren, waardoor teams kunnen schalen wanneer ze dat nodig hebben.

Wat is de rol van uw strategische partnership met AMD in TensorWaves groei en onderscheid?

Het is fundamenteel. AMD heeft in TensorWave geïnvesteerd, ons uitgenodigd voor de MI300X Instinct-lancering en we blijven nauw samenwerken op het gebied van hardware, software-activatie en ecosysteemgroei. Als een all-AMD-cloud kunnen we snel schakelen met elke Instinct-generatie en fungeren als een levend laboratorium dat alternatieven biedt in onze markt. Ons AMD-only-onderscheid heeft ons in staat gesteld om te werken met een snelheid die niet haalbaar is in de AI-infrastructuurmarkt. Hun partnership laat ons toe om snel in te halen, eerst te verschepen met nieuwe GPU’s en echte prestaties op grote schaal te publiceren.

GPU-toegang blijft een grote bottleneck voor AI-teams—hoe gaat TensorWave deze uitdaging aan?

We gaan deze bottlenecks aan door middel van supply-onafhankelijkheid: door te bouwen op AMD, vermijden we de ergste beperkingen van andere chipfabrikanten en geven we beschikbaarheid door aan onze klanten. Supply-onafhankelijkheid via AMD zorgt ervoor dat onze klanten niet vastzitten in dezelfde wachtrij als iedereen.

Gaten in de AI-infrastructuur-ecosysteem bestaan omdat zo veel spelers soortgelijke oplossingen bouwen, waardoor er veel overlap ontstaat. Dat komt vaak door een gebrek aan bewustzijn over wat er gebeurt in de markt. De eerste stap naar het dichten van die gaten is om te begrijpen wie wat doet, waar kansen voor samenwerking zijn, waar concurrentie innovatie kan stimuleren en uiteindelijk hoe het ecosysteem als geheel kan verbeteren. Een uniek gat in de AI-infrastructuurmarkt is energie; zelfs als GPU’s beschikbaar zijn, is er vaak niet genoeg energie om de groeiende aantal AI-toepassingen te ondersteunen. Het oplossen van deze resource-uitdagingen zijn onze sleutel tot het mogelijk maken van duurzame groei en innovatie in de komende jaren.

Hoe verhogen functies zoals directe vloeistofkoeling en UEC-klaar netwerken (Universal Ethernet Consortium) de prestaties en kostenefficiëntie?

Directe vloeistofkoeling en UEC-klaar netwerken zijn fundamenteel voor wat een moderne AI-cloud economisch haalbaar maakt op grote schaal, en beide zijn centraal in hoe we TensorWave hebben ontworpen.

Over DLC: de nieuwste accelerator-generaties, AMD’s MI355X en MI455X, werken bij thermische envelopes die lucht niet efficiënt kunnen afhandelen. We hebben het over 1400W+ TDP’s per GPU. Directe vloeistofkoeling verwijdert hitte bij de bron via cold plate of onderdompeling, wat drie dingen doet voor onze klanten. Ten eerste maakt het substantieel hogere rack-dichtheid mogelijk, 120-300kW+ per rack in plaats van 30 tot 40kW, wat de voetafdruk comprimeert en de kosten per megawatt voor onroerend goed en stroomdistributie verlaagt. Ten tweede drijft het PUE naar 1,1, versus 1,4 tot 1,5 voor legacy luchtgekoelde faciliteiten; op onze schaal vertaalt zich dat naar tientallen miljoenen dollars aan jaarlijkse energibesparingen. Ten derde, en vaak onderschat, houdt DLC silicium bij lagere, meer stabiele junction-temperaturen, wat de levensduur van de hardware verlengt. Dat laatste punt is enorm belangrijk wanneer je een zesjarig actief ondersteunt.

Over UEC: de Ultra Ethernet Consortium-specificatie, die AMD heeft geholpen oprichten en die in 2025 1.0 bereikte, geeft ons een open, merchant-silicon-fabric dat de metrics die werkelijk belangrijk zijn voor gedistribueerde training, overtreft of bereikt. De kostenverhaal is structureel. Ethernet heeft een half dozijn geloofwaardige merchant-silicon-fabrikanten die concurreren op prijs, versus een enkele bron-alternatief dat een premium draagt. Voor een 100MW-site is het kiezen voor UEC-klaar netwerken in plaats van propriëtaire fabric een beslissing van negen cijfers, en de operationele voordelen zijn cumulatief omdat onze netwerkengineers al Ethernet kennen.

Samen laten deze keuzes ons toe om betere trainings-economie te leveren dan legacy-clouds. Klanten zien hogere effectieve FLOPs per dollar, meer voorspelbare stap-tijden op grote banen en een duidelijke route als modellen schalen. Voor ons betekenen ze een meer verdedigbare koststructuur en de flexibiliteit om echt concurrerende tariefkaarten aan te bieden.

Kunt u voorbeelden delen van hoe klanten TensorWave gebruiken om grote schaal AI-modellen te trainen?

TensorWave-klanten hebben hoge prestatie-AI-compute nodig zonder GPU-schaarste, vendor lock-in of uit de hand lopende kosten. TensorWave biedt exclusieve AMD-cloud – open, memory-geoptimaliseerd en productieklaar, wat teams schaalbare AI-infrastructuur biedt die toegankelijk, flexibel en kostenefficiënt is.

Bijvoorbeeld, Modular koos ervoor om zijn MAX-inferentie-stack uit te voeren op TensorWaves AMD-GPU-infrastructuur omdat TensorWave aanzienlijk betere kost-prestatie-economie levert voor grote schaal AI-inferentie. Door Modulars MAX uit te voeren op TensorWaves AMD-compute, bereiken ze tot 70% lagere kosten per miljoen tokens, 57% snellere doorvoer en minder totale kosten dan andere GPU-stacks.

Met Nvidia’s voortdurende dominantie, waar ziet u de grootste kansen voor uitdagers zoals TensorWave?

In een AI-compute-ruimte die gedomineerd wordt door een paar grote spelers, zijn de grootste uitdagingen het bereiken van snelheid naar de markt, het leveren van de laatste technologie en het bieden van uitzonderlijke ondersteuning. Hyperscalers bieden vaak een breed scala aan opties, maar worstelen om de focus of persoonlijke begeleiding te bieden die klanten nodig hebben. Om door te breken in deze gedomineerde ruimte, richt TensorWave zich op onze sterke punten, terwijl we samenwerken om de beste technologie mogelijk te bieden en ervoor te zorgen dat klanten alternatieve opties hebben.

De twee grootste kansen voor uitdagers van Nvidia’s AI-infrastructuur-dominantie liggen in open ecosystemen en geheugen. Open ecosystemen elimineren lock-in op elk niveau (hardware, interconnect en software). Bovendien keert geheugen, in combinatie met netwerk-geoptimaliseerde training/inferentie, de kostencurve om.

Als we vijf jaar vooruitkijken, hoe ziet u de toekomst van AI-infrastructuur en TensorWaves rol daarin?

Gedurende jaren was het doel in AI-infrastructuur om het goed, stabiel en gemakkelijk te maken. De volgende fase zal gaan over wat je kunt leveren op basis daarvan – beheerde diensten, AI-as-a-Service, alles wat klanten helpt om gemakkelijker te implementeren en te schalen.

We zijn aan het begin van een grote transformatie. AI-technologie blijft vooruitgang boeken en alternatieven zoals AMD worden steeds haalbaarder. Naarmate dit gebeurt, zullen klanten zich meer op hun gemak voelen bij het implementeren op grote schaal en zal het hele ecosysteem beginnen te openen en te groeien.

Bedankt voor het geweldige interview, iedereen die meer wil leren over dit innovatieve AI-infrastructuurbedrijf, moet TensorWave bezoeken.

Antoine is een visionaire leider en oprichtend partner van Unite.AI, gedreven door een onwankelbare passie voor het vormgeven en promoten van de toekomst van AI en robotica. Een seriële ondernemer, hij gelooft dat AI net zo disruptief voor de samenleving zal zijn als elektriciteit, en wordt vaak betrapt op het enthousiast praten over het potentieel van disruptieve technologieën en AGI. Als een futurist, is hij toegewijd aan het onderzoeken van hoe deze innovaties onze wereld zullen vormgeven. Bovendien is hij de oprichter van Securities.io, een platform dat zich richt op investeren in cutting-edge technologieën die de toekomst opnieuw definiëren en hele sectoren herschappen.