Intervjuer
Piotr Tomasik, medgrundare och VD för TensorWave – Intervjuserie

Piotr Tomasik, medgrundare och VD för TensorWave, är en veteran teknisk entreprenör och AI-infrastrukturchef med mer än två decenniers erfarenhet som omfattar AI, SaaS, molntjänster, fintech och skapar ekonomin. Innan han co-founderade TensorWave 2023 co-founderade han Influential, en AI-driven influencer marknadsföringsplattform som senare förvärvades av Publicis för cirka 500 miljoner dollar, där han tjänstgjorde som CTO innan han gick över till en rådgivande roll.
Under sin karriär har Tomasik också grundat eller lett företag, inklusive Lets Rolo, On Guard Data och ActiveSide, medan han haft seniora tekniska positioner på CARD.com och Marker Trax. Utöver sina operativa roller är han en allmän partner i 1864 Fund och medgrundare av StartUp Vegas, där han aktivt stöder Las Vegas startup-ekosystem och framväxande tech-talang. En UNLV datavetenskapsstudent och erkänd tech-ledare, Tomasik har blivit känd för att ha hjälpt till att positionera TensorWave som ett snabbväxande AI-beräkningsinfrastrukturföretag som fokuserar på storskaliga GPU-molnplattformar som drivs av AMD-acceleratorer.
TensorWave är ett AI-infrastrukturföretag som fokuserar på att leverera högpresterande molntjänster som drivs av AMD-GPU:er, och positionerar sig som ett alternativ till mer slutna AI-ekosystem. Grundat 2023 och med huvudkontor i Las Vegas bygger företaget storskaliga GPU-kluster som är optimerade för utbildning och distribution av avancerade AI-modeller, med fokus på prestanda, flexibilitet och kostnadseffektivitet. Genom att utnyttja öppna hårdvaru- och mjukvaruekosystem syftar TensorWave till att öka tillgången till kraftfulla AI-beräkningsresurser för företag, forskare och utvecklare, och möjliggöra skalbara AI-arbetsbelastningar utan de begränsningar som traditionell leverantörslåsning medför.
Nvidia dominerar största delen av GPU-marknaden – varför bestämde du dig för att satsa allt på AMD, och vilka fördelar ger detta val TensorWave och dess kunder?
Efter lanseringen av ChatGPT sköt efterfrågan på AI i höjden. GPU:er tog slut snabbt, och NVIDIA var i princip det enda alternativet om man kunde få tag på det, och om man kunde hantera kostnaden. Den här bristen väckte ett enormt intresse för alternativ. Nu när vi har passerat den initiala hysterin finns det en riktig möjlighet att utmana Nvidias dominans med lösningar som är tillgängliga, kostnadseffektiva och lätta att använda.
Som startup har vi alltid fattat affärsbeslut med stark fokus och syfte. Det är därför vi inte har experimenterat med Nvidia, och vi har fortsatt att bygga ut vår kapacitet på AMD. Nästa fas i vår verksamhet handlar om att utnyttja dessa fokuserade förmågor så att alla kan hoppa in och göra något meningsfullt med AI. AMD är ett trovärdigt alternativ med verklig tillverkningskapacitet, en öppen mjukvarupostur och en minnesförst-roadmap för modern AI.
Hur skiljer sig TensorWaves tillvägagångssätt för AI-infrastruktur från traditionella GPU-molntjänsteleverantörer?
Vår differentiering är enkel: vi är den enda AMD-exklusiva molntjänsten i stor skala, som syftar till att återställa valet i AI-beräkningar, bryta Nvidias dominans och demokratisera tillgången. Men det handlar också om vår etos och vårt åtagande att erbjuda ett verkligt alternativ på marknaden. Först och främst vill vi leverera exceptionell AMD-baserad infrastruktur i stor skala. Därefter kommer vi att expandera till toppklass-tjänster ovanpå det – Models-as-a-Service, AI-as-a-Service, och göra allt enklare.
Som en all-AMD-molntjänst har vi mjukvaruupplevelse som är specifikt utformad för AMD från dag ett. Denna fokus låter oss optimera kisel, nätverk och mjukvara från slutet till slutet, och säkerställa att team kan skala när de behöver.
Vilken roll spelar er strategiska partnerskap med AMD i TensorWaves tillväxt och differentiering?
Det är grundläggande. AMD investerade i TensorWave, bjöd in oss till MI300X Instinct-lanseringen, och vi samarbetar fortfarande nära om hårdvara, mjukvaruaktivering och ekosystemtillväxt. Att vara en all-AMD-molntjänst betyder att vi kan flytta snabbt med varje Instinct-generation, och fungera som ett levande laboratorium som erbjuder, i stor skala, alternativ inom vår marknad. Vår AMD-exklusiva differentiering har möjliggjort för oss att arbeta i en takt som inte är lika uppnåelig på AI-infrastrukturmärket. Deras partnerskap låter oss stänga luckor snabbt, leverera först på nya GPU:er, och publicera verklig prestanda i stor skala.
Åtkomst till GPU förblir en stor flaskhals för AI-team – hur hanterar TensorWave denna utmaning?
Vi hanterar dessa flaskhalsar först genom leverantörsoberoende: genom att bygga på AMD, undviker vi den värsta av andra chip-tillverkares leveransbegränsningar, och överför tillgänglighet till kunder. Leverantörsoberoende genom AMD säkerställer att våra kunder inte blir strandsatta i samma kö som alla andra.
Gap i AI-infrastrukturekosystemet finns eftersom så många aktörer bygger liknande lösningar, vilket skapar en lot överlapp. Detta beror ofta på brist på medvetenhet om vad som händer över marknaden. Det första steget för att stänga dessa gap är att förstå vem som gör vad, var det finns möjligheter för samarbete, var konkurrens kan driva innovation, och slutligen, hur ekosystemet kan förbättras som helhet. En unik lucka i AI-infrastrukturmärket är kraft; även om GPU:er är tillgängliga, finns det ofta inte tillräckligt med energi för att stödja den växande mängden AI-applikationer. Att lösa dessa resursutmaningar är vår nyckel till att möjliggöra hållbar tillväxt och innovation i framtiden.
Hur förbättrar funktioner som direkt vätskekylnings- och UEC-klara nätverk (Universal Ethernet Consortium) prestanda och kostnadseffektivitet?
Direkt vätskekylnings- och UEC-klara nätverk är grundläggande för vad som gör en modern AI-molntjänst ekonomiskt livskraftig i stor skala, och båda är centrala för hur vi har utformat TensorWave.
Om DLC: de senaste accelerator-generationerna, AMD:s MI355X och MI455X, körs vid termiska områden som luft inte kan hantera effektivt. Vi pratar om 1400W+ TDP per GPU. Direkt vätskekylnings avlägsnar värme vid källan via kallplatta eller nedsänkningsdesign, vilket gör tre saker för våra kunder. Först möjliggör det avsevärt högre rackdensitet, 120-300kW+ per rack istället för 30 till 40kW, vilket komprimerar fotavtrycket och minskar kostnaden per megawatt fastighets- och eldistribution. Andra, det driver PUE mot 1,1, jämfört med 1,4 till 1,5 för äldre luftkylda anläggningar; på vår skala översätter det till tiotals miljoner dollar i årliga besparingskostnader. Tredje, och ofta underapprecierad, DLC håller kisel vid lägre, mer stabila junctionstemperaturer, vilket bevarar upprätthållna klockhastigheter under långa utbildningspass och förlänger den användbara livslängden för hårdvaran. Det sista punkten är enormt viktigt när man tecknar en sexårig tillgång.
Om UEC: Ultra Ethernet Consortium-specifikationen, som AMD hjälpte till att grunda och som nådde 1,0 2025, ger oss en öppen, merchant-silicon-fabric som möter eller överträffar InfiniBand på de mått som verkligen betyder något för distribuerad utbildning. Svanslatens på samlingar, effektiv bandbredd under konkurrens, och skalbeteende förbi 100 000 GPU-tröskeln. Kostnadshistorien är strukturell. Ethernet har ett halvt dussin trovärdiga merchant-silicon-leverantörer som konkurrerar om priset, jämfört med ett ensamkäll-alternativ som bär en väldokumenterad premie. För en 100MW-plats är valet av UEC-klart nätverk istället för ett proprietärt fabric vanligtvis ett nio-siffrigt CAPEX-beslut, och de operativa fördelarna ackumuleras eftersom våra nätverksingenjörer redan känner till Ethernet.
Tillsammans låter dessa val oss leverera bättre utbildningsekonomi än äldre molntjänster. Kunder ser högre effektiv FLOPs per dollar, mer förutsägbara steg på stora jobb, och en tydlig väg när modeller skalar. För oss betyder de en mer försvarbar kostnadsstruktur och flexibiliteten att erbjuda verkligt konkurrenskraftiga prislistor.
Kan du dela exempel på hur kunder använder TensorWave för att utbilda storskaliga AI-modeller?
TensorWave-kunder behöver högpresterande AI-beräkningar utan GPU-brist, leverantörsbundenhet eller springande kostnader. TensorWave erbjuder exklusiv AMD-molntjänst – öppen, minnesoptimerad och produktionsklar, vilket ger teamen skalbar AI-infrastruktur som är tillgänglig, flexibel och kostnadseffektiv.
Till exempel valde Modular att köra sin MAX-inferensstack på TensorWaves AMD-GPU-infrastruktur eftersom TensorWave levererar avsevärt bättre kostnad-prestanda för stor skalig AI-inferens. Genom att köra Modulars MAX på TensorWaves AMD-beräkning uppnår de upp till 70% lägre kostnad per miljon token, 57% snabbare genomströmning och lägre total kostnad än andra GPU-stackar.
Med Nvidias fortsatta dominans, var ser du de största möjligheterna för utmanare som TensorWave?
I ett AI-beräkningsutrymme som domineras av ett fåtal stora aktörer är de största utmaningarna att uppnå marknadsacceleration, leverera den senaste tekniken och erbjuda exceptionell support. Hyperscalers erbjuder ofta ett brett utbud av alternativ, men kämpar för att erbjuda den fokus eller personliga vägledning som kunder behöver. För att bryta igenom detta dominerade utrymme fokuserar TensorWave på våra styrkor, samtidigt som vi samarbetar för att erbjuda den bästa tekniken möjlig och säkerställa att kunder har alternativa alternativ.
De två största möjligheterna för utmanare av Nvidias AI-infrastrukturdominans är i öppna ekosystem och minne. Öppna ekosystem eliminerar låsning på varje nivå (hårdvara, interconnect och mjukvara). Dessutom minskar minnespar med nätverksoptimerad utbildning/inferens kostnadskurvan.
Om fem år, hur ser du framtiden för AI-infrastruktur och TensorWaves roll i den?
Under många år har målet för AI-infrastruktur varit att göra den bra, stabil och lätt att använda. Nästa fas kommer att handla om vad du kan leverera ovanpå det – hanterade tjänster, AI-as-a-Service, allt som hjälper kunder att distribuera och skala mer enkelt.
Vi är i början av en stor transformation. AI-tekniken fortsätter att utvecklas, och alternativ som AMD blir allt mer trovärdiga. När detta sker kommer kunder att bli mer bekväma med att distribuera dem i stor skala, och hela ekosystemet kommer att börja öppna upp och växa.
Tack för den underbara intervjun, alla som vill lära sig mer om detta innovativa AI-infrastrukturföretag bör besöka TensorWave.












