Intervjuer
Darrick Horton, COO av TensorWave – Intervju-serie

Darrick Horton, COO av TensorWave, er en teknologi-eksekutiv og entreprenør med dypt erfaring innen AI-infrastruktur, skytjenester og avanserte hardware-systemer. Med en bakgrunn som spenner over datasenter-arkitektur, halvleder-teknologier og høy-ytelses databehandling, har han spilt en sentral rolle i å skalerer neste-generasjons AI-regneplattformer. Før hans ledelse i TensorWave, arbeidet Horton med avanserte ingeniør-initiativer, inkludert fusjonsforskning ved Lockheed Martins Skunk Works og bidro til NASA-finansierte plasma-fysikk- og astrofysikk-prosjekter. Hans karriere reflekterer en konsekvent fokus på å løse komplekse, stor-skala tekniske utfordringer og oversette dem til praktiske infrastruktur-løsninger for nye teknologier.
TensorWave er et AI-infrastruktur-selskap som fokuserer på å levere høy-ytelses skytjenester drevet av AMD-GPU-er, og stiller seg som en alternativ til mer lukkede AI-økosystemer. Grunnlagt i 2023 og med hovedkontor i Las Vegas, bygger selskapet store GPU-kluster som er optimert for å trenere og distribuere avanserte AI-modeller, med fokus på ytelse, fleksibilitet og kost-efektivitet. Ved å utnytte åpne hardware- og software-økosystemer, sikter TensorWave på å utvide tilgangen til kraftfulle AI-regne-resurser for bedrifter, forskere og utviklere, og muliggjøre skalerbare AI-arbeidsbelastninger uten begrensninger fra tradisjonell leverandør-lås.
Nvidia dominerer størsteparten av GPU-markedet—hvorfor bestemte du deg for å satse helt på AMD, og hva fordeler gir dette valget TensorWave og dens kunder?
Etter lanseringen av ChatGPT, økte etterspørselen etter AI kraftig. GPU-er ble snappet opp raskt, og NVIDIA var nesten den eneste muligheten hvis du kunne få tak i det, og hvis du kunne håndtere kostnadene. Denne mangelen utløste en enorm interesse for alternativer. Nå som vi er forbi den innledende hypen, er det en reel mulighet til å utfordre Nvidias dominans med løsninger som er tilgjengelige, kost-efektive og enkle å bruke.
Som et startup-selskap, har vi alltid tatt forretningsbeslutninger med en sterk fokus og formål. Derfor har vi ikke eksperimentert med Nvidia, og vi har fortsatt å bygge ut våre evner på AMD. Neste fase av vårt selskap handler om å satse på disse fokuserte evnene, slik at alle kan hoppe inn og gjøre noe meningsfullt med AI. AMD er et troverdig alternativ med reell produksjonsskala, en åpen software-holdning og en minne-først veikart for moderne AI.
Hvordan skiller TensorWaves tilnærming til AI-infrastruktur seg fra tradisjonelle GPU-skytjenesteleverandører?
Vår differensiering er rett frem: vi er den eneste AMD-eksklusive skyen i stor skala, som søker å gjenopprette valg i AI-regning, bryte Nvidias dominans og demokratisere tilgangen. Men det handler også om vår etos og forpliktelse til å bringe et sant alternativ til markedet. Først og fremst ønsker vi å levere unik AMD-basert infrastruktur i stor skala. Deretter vil vi utvide til topp-kvalitets tjenester på toppen av det – Modeller-som-en-tjeneste, AI-som-en-tjeneste, og gjøre alt enklere.
Som en all-AMD-sky, har vi software-erfaring bygget spesifikt for AMD fra dag én. Denne fokuset lar oss optimere silisium, nettverk og software fra ende til ende, og sikrer at team kan skalerer når de trenger det.
Hva rolle spiller din strategiske partnerskap med AMD i TensorWaves vekst og differensiering?
Det er grunnleggende. AMD investerte i TensorWave, inviterte oss til MI300X Instinct-lanseringen, og vi fortsetter å samarbeide tett på hardware, software-aktivering og økosystem-vækst. Å være en all-AMD-sky lar oss flytte raskt med hver Instinct-generasjon, og fungere som et levende laboratorium som tilbyr, i stor skala, alternativer innen vår marked. Vår AMD-eksklusive differensiering har gjort det mulig for oss å arbeide i en takt som ikke er like oppnåelig i AI-infrastruktur-markedet. Deres partnerskap lar oss lukke gap raskt, levere først på nye GPU-er, og publisere virkelig ytelse i stor skala.
GPU-tilgang er fortsatt en større flaskehals for AI-team—hvordan takler TensorWave denne utfordringen?
Vi takler disse flaskenhalser først og fremst gjennom forsyning-uavhengighet: ved å bygge på AMD, unngår vi den verste av andre chip-produsenters forsyningsbegrensninger, og overfører tilgjengeligheten til kundene våre.
Gap i AI-infrastruktur-økosystemet eksisterer fordi så mange spillere bygger lignende løsninger, og skaper mye overlap. Dette kommer ofte fra en mangel på kunnskap om hva som skjer over hele markedet. Det første steget til å lukke disse gapene er å forstå hvem som gjør hva, hvor det er muligheter for samarbeid, hvor konkurranse kan drive innovasjon, og til slutt, hvordan økosystemet kan forbedres som helhet. En unik gap i AI-infrastruktur-markedet er kraft; selv om GPU-er er tilgjengelige, er det ofte ikke nok energi til å støtte den voksende mengden AI-applikasjoner. Å løse disse ressurs-utfordringene er vår nøkkel til å muliggjøre bærekraftig vekst og innovasjon i årene som kommer.
Hvordan forbedrer egenskaper som direkte væskeavkjøling og UEC-klar nettverking (Universal Ethernet Consortium) ytelse og kost-efektivitet?
Direkte væskeavkjøling og UEC-klar nettverking er grunnleggende for hva som gjør en moderne AI-sky økonomisk bærekraftig i stor skala, og begge er sentrale for hvordan vi har designet TensorWave.
På DLC: de nyeste akselerator-generasjonene, AMDs MI355X og MI455X, kjører ved termiske omgivelser som luft enkelt ikke kan håndtere effektivt. Vi snakker om 1400W+ TDP per GPU. Direkte væskeavkjøling fjerner varme ved kilde via kalde plater eller neddykkings-design, som gjør tre ting for våre kunder. Først, det muliggjør vesentlig høyere rack-tetthet, 120-300kW+ per rack i stedet for 30 til 40kW, som komprimerer fotavtrykket og kutte per megawatt eiendom og strømfordelingskostnader. Andre, det driver PUE mot 1,1, i stedet for 1,4 til 1,5 for eldre luft-avkjølte anlegg; på vår skala, oversetter det til titall millioner dollar i årlige utility-besparelser. Tredje, og ofte underverdiert, DLC holder silisium ved lavere, mer stabile sammenføyningstemperaturer, som bevarer vedvarende klokke-rater under lange treningsløp og forlenger den nyttige livstiden til hardwaren. Den siste punkten betyr enormt når du underwriter en seks-års aksje.
På UEC: Ultra Ethernet Consortium-specifikasjonen, som AMD hjalp til å etablere og som nådde 1,0 i 2025, gir oss et åpent, merchant-silicon-stoff som møter eller overgår InfiniBand på målene som faktisk betyr noe for distribuert trening. Tail-latens på kollektiver, effektiv båndbredde under konflikt, og skalerings-atferd forbi 100 000 GPU-grensen. Kost-historien er strukturell. Ethernet har en halv dusin troverdige merchant-silicon-leverandører som konkurrerer på pris, i stedet for en enkelt-kilde-alternativ som bærer en vel-dokumentert premie. For et 100MW-anlegg, å velge UEC-klar nettverking i stedet for proprietær stoff er typisk en ni-sifret CAPEX-beslutning, og de operative fordelene akkumulerer fordi våre nettverksingeniører allerede kjenner Ethernet.
Tatt sammen, lar disse valgene oss levere bedre trenings-økonomi enn eldre skyer. Kunder ser høyere effektiv FLOPs per dollar, mer forutsigbare steg-tider på store jobber, og en klar løpebane når modeller skalerer. For oss betyr det en mer forsvarlig kost-struktur og fleksibiliteten til å tilby virkelig konkurranse-vennlige rate-kort.
Kan du dele eksempler på hvordan kunder utnytter TensorWave til å trenere store AI-modeller?
TensorWave-kunder trenger høy-ytelses AI-regning uten GPU-mangel, leverandør-lås eller løpske kostnader. TensorWave tilbyr eksklusiv AMD-sky – åpen, minne-optimert og produksjonsklar, som gir teamer skalerbar AI-infrastruktur som er tilgjengelig, fleksibel og kost-efektiv.
For eksempel valgte Modular å kjøre sin MAX-inferens-stakk på TensorWaves AMD-GPU-infrastruktur fordi TensorWave levere vesentlig bedre kost-ytelses-økonomi for stor-skala AI-inferens. Ved å kjøre Modulars MAX på TensorWaves AMD-regning, oppnår de opptil 70% lavere kost per million token, 57% raskere gjennomstrømming og lavere samlet kost enn andre GPU-stakker.
Med Nvidias fortsatt dominans, hvor ser du de største mulighetene for utfordrere som TensorWave?
I et AI-regne-rom som domineres av noen få store spillere, er de største utfordringene å oppnå hastighet til markedet, levere den siste teknologien og tilby unik støtte. Hyperscalere tilbyr ofte en rekke alternativer, men sliter med å tilby fokus eller personlig veiledning kundene trenger. For å bryte gjennom dette dominerte rommet, fokuserer TensorWave på våre styrker, samtidig som vi samarbeider for å tilby den beste teknologien mulig og sikre at kundene våre har alternative valg.
De to største mulighetene for utfordrere av Nvidias AI-infrastruktur-dominans er i åpne økosystemer og minne. Åpne økosystemer eliminerer lås på hver lag (hardware, kobling og software). I tillegg eliminerer minne, kombinert med nettverks-optimert trening/inferens, kost-kurve.
Ser du fem år fremover, hvordan forestiller du deg fremtiden for AI-infrastruktur og TensorWaves rolle i den?
I årevis har målet for AI-infrastruktur vært å gjøre det bra, stabilt og enkelt å bruke. Neste fasen vil handle om hva du kan levere på toppen av det – managed services, AI-som-en-tjeneste, hva som helst som hjelper kundene å deployere og skalerer mer enkelt.
Vi er i begynnelsen av en stor transformasjon. AI-teknologien fortsetter å utvikle seg, og alternativer som AMD blir mer og mer troverdige. Etterhvert som dette skjer, vil kundene bli mer komfortable med å deployere dem i stor skala, og hele økosystemet vil begynne å åpne seg og vokse.
Takk for det flotte intervjuet, alle som ønsker å lære mer om dette innovative AI-infrastruktur-selskapet bør besøke TensorWave.












