Connect with us

Intervjuer

Piotr Tomasik, medgrunnlegger og president i TensorWave – Intervju-serie

mm

Piotr Tomasik, medgrunnlegger og president i TensorWave, er en veteran teknologi-entrepreneur og AI-infrastruktur executive med mer enn to tiår med erfaring som omfatter AI, SaaS, skytjenester, finansteknologi og skaperøkonomi. Før han co-grunnla TensorWave i 2023, co-grunnla han Influential, en AI-drevet influencer-markedsføringsplattform som senere ble kjøpt av Publicis for omtrent 500 millioner dollar, der han tjenestegjorde som CTO før han gikk over til en rådgiverrolle.

Gjennom sin karriere har Tomasik også grunnlagt eller ledet selskaper som Lets Rolo, On Guard Data og ActiveSide, mens han har hatt senior teknologiske stillinger i CARD.com og Marker Trax. I tillegg til sine operative roller er han en generell partner i 1864 Fund og medgrunnlegger av StartUp Vegas, der han aktivt støtter Las Vegas startup-økosystemet og fremvoksende teknisk talent. En UNLV datavitenskapsgrad og anerkjent teknologileder, Tomasik har blitt kjent for å hjelpe med å posisjonere TensorWave som et raskt voksende AI-regneinfrastrukturselskap som fokuserer på store skalaer av GPU-skytjenester drevet av AMD-akseleratorer.

TensorWave er et AI-infrastrukturselskap som fokuserer på å levere høy-ytelses skytjenester drevet av AMD-GPUer, og posisjonerer seg som en alternativ til mer lukkede AI-økosystemer. Grunnlagt i 2023 og med hovedkontor i Las Vegas, bygger selskapet store skalaer av GPU-kluster som er optimalisert for trening og utrulling av avanserte AI-modeller, med fokus på ytelse, fleksibilitet og kostnadseffektivitet. Ved å utnytte åpne hardware- og software-økosystemer, sikter TensorWave på å utvide tilgangen til kraftfulle AI-regneressurser for bedrifter, forskere og utviklere, og muliggjøre skalerbare AI-arbeidsbelastninger uten begrensningene til tradisjonell leverandør-lås.

Nvidia dominerer størsteparten av GPU-markedet—hvorfor bestemte du deg for å satse alt på AMD, og hva fordeler gir dette valget TensorWave og dens kunder?

Etter lanseringen av ChatGPT, økte etterspørselen etter AI kraftig. GPUer ble snappet opp raskt, og NVIDIA var nesten den eneste muligheten hvis du kunne få tak i det, og hvis du kunne håndtere kostnadene. Denne mangelen utløste en enorm interesse for alternativer. Nå som vi er forbi den innledende hype, er det en reel mulighet til å utfordre Nvidias dominans med løsninger som er tilgjengelige, kostnadseffektive og enkle å bruke.

Som et startup, har vi alltid tatt forretningsbeslutninger med en sterk fokus og formål. Derfor har vi ikke eksperimentert med Nvidia, og vi har fortsatt å bygge ut våre evner på AMD. Neste fase av vårt selskap handler om å satse på disse fokuserte evnene, så alle kan hoppe inn og gjøre noe meningsfullt med AI. AMD er et troverdig alternativ med reell produksjonsskala, en åpen software-postur og en minne-først-vei for moderne AI.

Hvordan skiller TensorWaves tilnærming til AI-infrastruktur seg fra tradisjonelle GPU-skytjenesteleverandører?

Vår differensiering er rett frem: vi er den eneste AMD-eksklusive skyen i stor skala, som setter ut til å gjenopprette valg i AI-regning, bryte Nvidias dominans og demokratisere tilgangen. Men det handler også om vår etikk og forpliktelse til å levere en sann alternativ til markedet. Først og fremst vil vi levere eksepsjonell AMD-basert infrastruktur i stor skala. Deretter vil vi utvide til topp-klassetjenester på toppen av det – Modeller-som-en-tjeneste, AI-som-en-tjeneste, og gjøre alt enklere.

Som en all-AMD-sky, har vi software-erfaring bygget spesifikt for AMD fra dag én. Denne fokuseringen lar oss optimere silisium, nettverk og software fra ende til ende, og sikrer at team kan skaleres når de trenger det.

Hva rolle spiller din strategiske partnerskap med AMD i TensorWaves vekst og differensiering?

Det er grunnleggende. AMD investerte i TensorWave, inviterte oss til MI300X Instinct-lanseringen, og vi fortsetter å samarbeide tett på hardware, software-aktivering og økosystem-vækst. Å være en all-AMD-sky betyr at vi kan flytte raskt med hver Instinct-generasjon, og fungere som en levende laboratorium som tilbyr, i stor skala, alternativer innen vår markedsandel. Vår AMD-eksklusive differensiering har tillatt oss å arbeide i en takt som ikke er like oppnåelig i AI-infrastrukturmarkedet. Deres partnerskap lar oss lukke gap raskt, levere først på nye GPUer, og publisere virkelig ytelse i stor skala.

GPU-tilgang forblir en stor flaskehals for AI-team—hvordan takler TensorWave denne utfordringen?

Vi takler disse flaskehalsene først og fremst gjennom forsyningsuavhengighet: ved å bygge på AMD, unngår vi den verste av andre chip-produsenters forsyningsbegrensninger, og overfører tilgjengeligheten til kundene våre.

Gap i AI-infrastruktur-økosystemet eksisterer fordi så mange aktører bygger lignende løsninger, og skaper mye overlap. Dette kommer ofte fra en mangel på kunnskap om hva som skjer over hele markedet. Det første skrittet til å lukke disse gapene er å forstå hvem som gjør hva, hvor det er muligheter for samarbeid, hvor konkurranse kan drive innovasjon, og hvordan økosystemet kan forbedres som helhet. En unik åpning i AI-infrastrukturmarkedet er kraft; selv om GPUer er tilgjengelige, er det ofte ikke nok energi til å støtte den voksende mengden AI-applikasjoner. Å løse disse ressursutfordringene er våre nøkkel til å muliggjøre bærekraftig vekst og innovasjon i årene som kommer.

Hvordan forbedrer egenskaper som direkte væskeavkjøling og UEC-klar nettverking (Universal Ethernet Consortium) ytelsen og kostnadseffektiviteten?

Direkte væskeavkjøling og UEC-klar nettverking er grunnleggende for hva som gjør en moderne AI-sky økonomisk bærekraftig i stor skala, og begge er sentrale for hvordan vi har designet TensorWave.

På DLC: de nyeste akselerator-generasjonene, AMDs MI355X og MI455X, kjører ved termiske områder som luft enkelt ikke kan håndtere effektivt. Vi snakker om 1400W+ TDP per GPU. Direkte væskeavkjøling fjerner varme fra kilden via kalde plater eller neddykningsdesign, som gjør tre ting for våre kunder. Først og fremst muliggjør det betydelig høyere rack-tetthet, 120-300kW+ per rack i stedet for 30 til 40kW, som komprimerer fotavtrykket og kutte per megawatt eiendom og strømforsyningskostnader. Andre, det driver PUE mot 1,1, i stedet for 1,4 til 1,5 for eldre luftavkjølede anlegg; på vår skala, oversetter det til titall millioner dollar i årlige utility-besparelser. Tredje, og ofte undervurdert, holder DLC silisium ved lavere, mer stabile sammenføyningstemperaturer, som bevarende vedvarende klokkefrekvenser under lange treningsløp og forlenger den nyttige livsløpen til maskinvaren. Den siste punkten betyr enormt når du underwriter en seks-års aksje.

På UEC: Ultra Ethernet Consortium-spekka, som AMD hjalp til å etablere og som nådde 1,0 i 2025, gir oss et åpent, merchant-silicon-stoff som møter eller overgår InfiniBand på målene som virkelig betyr noe for distribuert trening. Hale-forsinkelse på kollektiver, effektiv båndbredde under konflikt, og skaleringsatferd forbi 100 000 GPU-grensen. Kostnadshistorien er strukturell. Ethernet har en halv dusin troverdige merchant-silicon-leverandører som konkurrerer på pris, i stedet for en enkelt-kilde-alternativ som bærer en vel-dokumentert premie. For et 100MW-anlegg, å velge UEC-klar nettverking i stedet for proprietær stoff er vanligvis en ni-sifret CAPEX-beslutning, og de operative fordeler akkumulerer fordi våre nettverksingeniører allerede kjenner Ethernet.

Tatt sammen, lar disse valgene oss levere bedre treningsøkonomi enn legacy-skyer. Kunder ser høyere effektiv FLOPs per dollar, mer forutsigbare steg-tider på store jobber, og en klar løpebane når modeller skalerer. For oss betyr det en mer forsvarlig kostnadsstruktur og fleksibiliteten til å tilby virkelig konkurranse-vennlige rattekort.

Kan du dele eksempler på hvordan kunder utnytter TensorWave til å trene store skalaer av AI-modeller?

TensorWave-kunder trenger høy-ytelses AI-regning uten GPU-mangel, leverandør-lås eller løpske kostnader. TensorWave tilbyr eksklusiv AMD-sky – åpen, minne-optimert og produksjonsklar, som gir teamer skalerbar AI-infrastruktur som er tilgjengelig, fleksibel og kostnadseffektiv.

For eksempel valgte Modular å kjøre sin MAX-inferens-stakk på TensorWaves AMD-GPU-infrastruktur fordi TensorWave leverer betydelig bedre kost-ytelseseffekter for stor skala AI-inferens. Ved å kjøre Modulars MAX på TensorWaves AMD-regning, oppnår de opp til 70% lavere kostnad per million tokens, 57% raskere gjennomstrømming og mindre samlet kostnad enn andre GPU-stakker.

Med Nvidias fortsatte dominans, hvor ser du de største mulighetene for utfordrere som TensorWave?

I et AI-regne-rom som domineres av noen få store spillere, er de største utfordringene å oppnå hastighet til markedet, levere den nyeste teknologien og tilby unik støtte. Hyperscalere tilbyr ofte en rekke alternativer, men sliter med å tilby fokus eller personlig veiledning kundene trenger. For å bryte gjennom dette dominerte rommet, fokuserer TensorWave på våre styrker, samtidig som vi samarbeider for å tilby den beste teknologien mulig og sikre at kundene våre har alternative valg.

De to største mulighetene for utfordrere av Nvidias AI-infrastruktur-dominans er i åpne økosystemer og minne. Åpne økosystemer eliminerer lås på hver lag (hardware, kobling og software). I tillegg eliminerer minne, kombinert med nettverks-optimert trening/inferens, kostkurven.

Ser du fem år fremover, hvordan forestiller du deg fremtiden for AI-infrastruktur og TensorWaves rolle i den?

For år har målet i AI-infrastruktur vært å gjøre det bra, stabilt og enkelt å bruke. Neste fase vil handle om hva du kan levere på toppen av det – managed services, AI-som-en-tjeneste, noe som hjelper kundene å deployere og skalerer mer enkelt.

Vi er i begynnelsen av en stor transformasjon. AI-teknologien fortsetter å avansere, og alternativer som AMD blir mer og mer livskraftige. Mens dette skjer, vil kundene bli mer komfortable med å deployere dem i stor skala, og hele økosystemet vil begynne å åpne seg og vokse.

Takk for det flotte intervjuet, alle som ønsker å lære mer om dette innovative AI-infrastrukturselskapet bør besøke TensorWave.

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.