Interviews
Piotr Tomasik, Co-Founder og Præsident for TensorWave – Interview Serie

Piotr Tomasik, Co-Founder og Præsident for TensorWave, er en veteran teknologi-iværksætter og AI-infrastruktur direktør med mere end to årtiers erfaring inden for AI, SaaS, cloud computing, fintech og creator-økonomi. Før han co-foundede TensorWave i 2023, co-foundede han Influential, en AI-drevet influencer marketing-platform, der senere blev købt af Publicis for ca. 500 millioner dollars, hvor han fungerede som CTO, før han gik over til en rådgivende rol.
I løbet af sin karriere har Tomasik også stiftet eller ledet virksomheder, herunder Lets Rolo, On Guard Data og ActiveSide, samt haft seniorteknologiske stillinger hos CARD.com og Marker Trax. Ud over sine driftsroller er han en generel partner i 1864 Fund og co-founder af StartUp Vegas, hvor han aktivt støtter Las Vegas startup-økosystemet og fremkomende teknologi-talent. En UNLV computer science-uddannet og anerkendt tech-leder, Tomasik er blevet kendt for at hjælpe med at positionere TensorWave som et hurtigt voksende AI-compute-infrastruktur-selskab fokuseret på store skala GPU-cloud-platforme drevet af AMD-acceleratorer.
TensorWave er et AI-infrastruktur-selskab fokuseret på at levere høj-ydelses cloud computing drevet af AMD-GPU’er, og positionerer sig som en alternativ til mere lukkede AI-økosystemer. Stiftet i 2023 og med hovedkvarter i Las Vegas, bygger virksomheden store skala GPU-kluster optimeret til træning og implementering af avancerede AI-modeller, med fokus på ydelse, fleksibilitet og omkostningseffektivitet. Ved at udnytte åbne hardware- og software-økosystemer, sigter TensorWave på at udvide adgangen til kraftfulde AI-compute-resourcer for virksomheder, forskere og udviklere, og muliggøre skalerbare AI-arbejdsbelastninger uden de begrænsninger, der er forbundet med traditionel vendor-låsning.
Nvidia dominerer det meste af GPU-markedet—hvorfor valgte du at satse alt på AMD, og hvilke fordele giver dette valg TensorWave og dens kunder?
Efter lanceringen af ChatGPT, steg efterspørgslen på AI, og GPU’er blev hurtigt optaget, og NVIDIA var næsten den eneste mulighed, hvis man overhovedet kunne få det, og hvis man kunne klare omkostningerne. Denne mangel udløste en enorm interesse for alternativer. Nu, hvor vi er kommet ud over den første hype, er der en reel mulighed for at udfordre Nvidias dominans med løsninger, der er tilgængelige, omkostningseffektive og lette at bruge.
Som startup har vi altid truffet forretningsbeslutninger med stærk fokus og formål. Det er derfor, vi ikke har eksperimenteret med Nvidia, og vi har fortsat med at bygge vores kapaciteter på AMD. Den næste fase af vores virksomhed handler om at bygge videre på disse fokuserede kapaciteter, så alle kan komme i gang og gøre noget meningsfuldt med AI. AMD er en troværdig alternativ med reel produktions-skala, en åben software-holdning og en memory-first-vejviser for moderne AI.
Hvordan adskiller TensorWaves tilgang til AI-infrastruktur sig fra traditionelle GPU-cloud-leverandører?
Vores differentiering er ret enkel: vi er den eneste AMD-eksklusive cloud i stor skala, der søger at genoprette valgmuligheder i AI-compute, bryde Nvidias dominans og demokratisere adgangen. Men det handler også om vores etos og vores engagement i at bringe en sand alternativ til markedet. Først og fremmest vil vi levere exceptionel AMD-baseret infrastruktur i stor skala. Derefter vil vi udvide os til top-klassetjenester på toppen af det – Models-as-a-Service, AI-as-a-Service, og gøre alt sammen mere enkelt.
Som en all-AMD-cloud har vi software-erfaring bygget specifikt til AMD fra dag én. Denne fokus giver os mulighed for at optimere silicium, netværk og software fra ende til anden, så hold kan skala, når de har brug for det.
Hvordan spiller din strategiske partnerskab med AMD en rolle i TensorWaves vækst og differentiering?
Det er grundlæggende. AMD har investeret i TensorWave, inviteret os til MI300X Instinct-lanceringen, og vi samarbejder tæt omkring hardware, software-aktivering og økosystem-vækst. At være en all-AMD-cloud betyder, at vi kan bevæge os hurtigt med hver Instinct-generation, og fungere som et levende laboratorium, der tilbyder alternativer i stor skala inden for vores marked. Vores AMD-eksklusive differentiering har givet os mulighed for at arbejde i en hastighed, der ikke er opnåelig i AI-infrastruktur-markedet. Deres partnerskab giver os mulighed for at lukke huller hurtigt, leverer først på nye GPU’er, og offentliggør reel ydelse i stor skala.
GPU-adgang er fortsat en stor flaskehals for AI-hold—hvordan tackler TensorWave denne udfordring?
Vi tackler disse flaskehals første og fremmest gennem forsyning-uafhængighed: ved at bygge på AMD, undgår vi den værste del af andre chip-producenters forsyningsbegrænsninger, og giver kunderne adgang til det. Forsyning-uafhængighed gennem AMD sikrer, at vores kunder ikke bliver fastholdt i samme kø som alle andre.
Der er huller i AI-infrastruktur-økosystemet, fordi så mange spillere bygger lignende løsninger, hvilket skaber en masse overlap. Det skyldes ofte en mangel på indsigt i, hvad der sker på tværs af markedet. Det første skridt til at lukke disse huller er at forstå, hvem der gør hvad, hvor der er muligheder for samarbejde, hvor konkurrence kan drive innovation, og hvordan økosystemet kan forbedres som helhed. Et unikt hul i AI-infrastruktur-markedet er kraft; selv om GPU’er er tilgængelige, er der ofte ikke nok energi til at støtte det voksende antal AI-applikationer. At løse disse ressource-udfordringer er vores nøgle til at muliggøre bæredygtig vækst og innovation i årene fremover.
Hvordan forbedrer funktioner som direkte væske-køling og UEC-klar netværk (Universal Ethernet Consortium) ydelse og omkostningseffektivitet?
Direkte væske-køling og UEC-klar netværk er grundlæggende for, hvad der gør en moderne AI-cloud økonomisk bæredygtig i stor skala, og begge er centrale for, hvordan vi har designet TensorWave.
Om DLC: de nyeste accelerator-generationer, AMD’s MI355X og MI455X, kører ved termiske omgivelser, som luft simpelthen ikke kan håndtere effektivt. Vi taler om 1400W+ TDP per GPU. Direkte væske-køling fjerner varme ved kilden via cold plate eller immersion-design, hvilket gør tre ting for vores kunder. Først og fremmest giver det mulighed for væsentligt højere rack-tæthed, 120-300kW+ per rack i stedet for 30 til 40kW, hvilket komprimerer fodaftrykket og reducerer omkostningerne per megawatt ejendom og strømfordeling. Anden, det driver PUE mod 1,1, modsat 1,4 til 1,5 for traditionelle luft-kølede faciliteter; på vores skala oversætter det til titusinder af dollars i årlige besparelser på utility-omkostninger. Tredje, og ofte underestimeret, holder DLC silicium ved lavere, mere stabile junction-temperaturer, hvilket bevarer vedvarende ur-taktfrekvens under lange træningsløb og forlænger den nyttige levetid af hardwaren. Det sidste punkt betyder enormt, når man skal garantere en seks-årig ejendom.
Om UEC: Ultra Ethernet Consortium-specifikationen, som AMD hjalp med at grundlægge og som nåede 1.0 i 2025, giver os et åbent, merchant-silicon-fabrik, der møder eller overgår InfiniBand på de parametre, der virkelig betyder noget for distribueret træning. Hale-laten på collectives, effektiv båndbredde under konkurrence, og skaleringsadfærd over 100.000 GPU-grænsen. Omkostningshistorien er strukturel. Ethernet har en halv snes troværdige merchant-silicon-leverandører, der konkurrerer på pris, modsat en enkelt-kilde-alternativ, der medfører en velkendt præmie. For et 100MW-websted er valget af UEC-klar netværk i stedet for et proprietært fabrik typisk en ni-cifret CAPEX-beslutning, og de operationelle fordele akkumulerer, fordi vores netværksingeniører allerede kender Ethernet.
Taget sammen giver disse valg os mulighed for at levere bedre træningsøkonomi end legacy-clouds. Kunder ser højere effektiv FLOPs per dollar, mere forudsigelige step-tider på store job, og en klar vej, når modeller skalerer. For os betyder det en mere forsvarlig omkostningsstruktur og fleksibilitet til at tilbyde virkelig konkurrencedygtige rate-kort.
Kan du dele eksempler på, hvordan kunder udnytter TensorWave til at træne store skala AI-modeller?
TensorWave-kunder har brug for høj-ydelses AI-compute uden GPU-mangel, vendor-låsning eller løbske omkostninger. TensorWave tilbyder en eksklusiv AMD-cloud – åben, memory-optimeret og produktion-klar, hvilket giver hold skalerbar AI-infrastruktur, der er tilgængelig, fleksibel og omkostningseffektiv.
For eksempel valgte Modular at køre sin MAX-inference-stack på TensorWaves AMD-GPU-infrastruktur, fordi TensorWave leverer betydeligt bedre omkostnings-ydelseseffektivitet for stor skala AI-inference. Ved at køre Modulars MAX på TensorWaves AMD-compute opnår de op til 70% lavere omkostning per million tokens, 57% hurtigere gennemløbstid og mindre samlet omkostning end andre GPU-stacks.
Med Nvidias fortsatte dominans, hvor ser du de største muligheder for udfordrere som TensorWave?
I et AI-compute-rum, der er domineret af få store spillere, er de største udfordringer at opnå markedsføringshastighed, levere den seneste teknologi og tilbyde exceptionel support. Hyperscalers tilbyder ofte en bred vifte af muligheder, men kæmper med at tilbyde den fokus eller personlig vejledning, kunderne har brug for. For at bryde igennem dette dominerede rum fokuserer TensorWave på vores styrker, samtidig med at vi samarbejder om at tilbyde den bedste teknologi mulig og sikrer, at kunderne har alternative muligheder.
De to største muligheder for udfordrere af Nvidias AI-infrastruktur-dominans er i åbne økosystemer og memory. Åbne økosystemer eliminerer låsning på alle lag (hardware, interconnect og software). Desuden memory i kombination med netværks-optimeret træning/inference vipper omkostningskurven.
Set fem år frem, hvordan forestiller du dig fremtiden for AI-infrastruktur og TensorWaves rolle i den?
For år siden var målet for AI-infrastruktur at gøre det godt, stabil og let at bruge. Den næste fase vil handle om, hvad man kan levere på toppen af det – managed services, AI-as-a-Service, alt, der hjælper kunder med at implementere og skala mere let.
Vi er ved begyndelsen af en stor transformation. AI-teknologi fortsætter med at udvikle sig, og alternativer som AMD bliver mere og mere troværdige. Da det sker, vil kunderne blive mere komfortable med at implementere dem i stor skala, og hele økosystemet vil begynde at åbne sig og vokse.
Tak for det gode interview, enhver, der ønsker at lære mere om dette innovative AI-infrastruktur-selskab, skal besøge TensorWave.












