Connect with us

Intervjuer

Darrick Horton, COO på TensorWave – Intervjuerien

mm

Darrick Horton, COO på TensorWave, är en teknisk chef och entreprenör med djup erfarenhet av AI-infrastruktur, molntjänster och avancerade hårdvarusystem. Med en bakgrund som spänner över datacenterarkitektur, halvledarteknologi och högpresterande datorer, har han spelat en central roll i att skala upp nästa generations AI-beräkningsplattformar. Innan han började på TensorWave arbetade Horton med avancerade ingenjörsinitiativ, inklusive forskning om kärnfusion på Lockheed Martins Skunk Works och bidrog till NASA-finansierade projekt inom plasmafysik och astrofysik. Hans karriär präglas av ett konsekvent fokus på att lösa komplexa, storskaliga tekniska utmaningar och översätta dem till praktiska infrastrukturlösningar för ny teknik.

TensorWave är ett företag som specialiserar sig på AI-infrastruktur och fokuserar på att leverera högpresterande molntjänster som drivs av AMD:s GPU:er, och positionerar sig som ett alternativ till mer slutna AI-ekosystem. Företaget grundades 2023 och har sitt huvudkontor i Las Vegas, och bygger storskaliga GPU-kluster som är optimerade för utbildning och distribution av avancerade AI-modeller, med fokus på prestanda, flexibilitet och kostnadseffektivitet. Genom att utnyttja öppna hårdvaru- och mjukvaruekosystem syftar TensorWave till att öka tillgången till kraftfulla AI-beräkningsresurser för företag, forskare och utvecklare, och möjliggöra skalbara AI-arbetsbelastningar utan de begränsningar som traditionell leverantörslåsning medför.

Nvidia dominerar största delen av GPU-marknaden – varför valde du att satsa helt på AMD, och vad är fördelarna med det valet för TensorWave och dess kunder?

Efter lanseringen av ChatGPT sköt efterfrågan på AI i höjden. GPU:er tog slut snabbt, och NVIDIA var i princip det enda alternativet om man kunde få tag på det, och om man kunde hantera kostnaden. Den bristen väckte ett enormt intresse för alternativ. Nu när den första hysterin är över finns det en riktig möjlighet att utmana Nvidias dominans med lösningar som är tillgängliga, kostnadseffektiva och lätta att använda.

Som startup har vi alltid fattat affärsbeslut med ett starkt fokus och syfte. Därför har vi inte experimenterat med Nvidia, och vi har fortsatt att bygga ut vår kapacitet på AMD. Nästa fas i vår verksamhet handlar om att utnyttja dessa fokuserade förmågor så att alla kan komma igång och göra något meningsfullt med AI. AMD är ett trovärdigt alternativ med verklig tillverkningskapacitet, en öppen mjukvarupostur och en minnesförst-roadmap för modern AI.

Hur skiljer sig TensorWaves tillvägagångssätt för AI-infrastruktur från traditionella GPU-molntjänstleverantörer?

Vår differentiering är enkel: vi är det enda AMD-exklusiva molnet i stor skala, som syftar till att återställa valet i AI-beräkning, bryta Nvidias dominans och demokratisera tillgången. Men det handlar också om vår etos och vårt åtagande att erbjuda ett verkligt alternativ på marknaden. Först och främst vill vi leverera exceptionell AMD-baserad infrastruktur i stor skala. Därefter kommer vi att expandera till toppklass-tjänster ovanpå det – Modeller-som-en-tjänst, AI-som-en-tjänst, och göra allt enklare.

Som ett AMD-exklusivt moln har vi mjukvaruupplevelse som är byggd specifikt för AMD från dag ett. Detta fokus låter oss optimera silikon, nätverk och mjukvara från slut till slut, och säkerställer att team kan skala när de behöver.

Vilken roll spelar er strategiska partnerskap med AMD i TensorWaves tillväxt och differentiering?

Det är grundläggande. AMD investerade i TensorWave, bjöd in oss till MI300X Instinct-lanseringen, och vi samarbetar nära med dem om hårdvara, mjukvaruaktivering och ekosystemtillväxt. Att vara ett AMD-exklusivt moln betyder att vi kan röra oss snabbt med varje Instinct-generation, och fungera som ett levande laboratorium som erbjuder, i stor skala, alternativ inom vår marknad. Vår AMD-exklusiva differentiering har möjliggjort för oss att arbeta i en takt som inte är lika uppnåelig på AI-infrastrukturmärket. Deras partnerskap låter oss stänga luckor snabbt, leverera först på nya GPU:er, och publicera verklig prestanda i stor skala.

Åtkomst till GPU förblir en stor flaskhals för AI-team – hur hanterar TensorWave denna utmaning?

Vi hanterar dessa flaskhalsar först genom leverantörsoberoende: genom att bygga på AMD, undviker vi de värsta begränsningarna hos andra chip-tillverkare, och överför tillgänglighet till kunderna. Leverantörsoberoende genom AMD ser till att våra kunder inte blir fast i samma kö som alla andra.

Luckor i AI-infrastruktur-ekosystemet finns eftersom så många aktörer bygger liknande lösningar, vilket skapar mycket överlapp. Det beror ofta på bristande kännedom om vad som händer på marknaden. Det första steget för att stänga dessa luckor är att förstå vem som gör vad, var det finns möjligheter för samarbete, var konkurrens kan driva innovation, och slutligen, hur ekosystemet kan förbättras som helhet. En unik lucka i AI-infrastrukturmarknaden är kraft; även om GPU:er är tillgängliga, finns det ofta inte tillräckligt med energi för att stödja det växande antalet AI-applikationer. Att lösa dessa resursutmaningar är vår nyckel till att möjliggöra hållbar tillväxt och innovation i framtiden.

Hur förbättrar funktioner som direkt vätskekylnings- och UEC-klar nätverk (Universal Ethernet Consortium) prestanda och kostnadseffektivitet?

Direkt vätskekylnings- och UEC-klar nätverk är grundläggande för vad som gör en modern AI-molntjänst ekonomiskt livskraftig i stor skala, och båda är centrala för hur vi har designat TensorWave.

Om DLC: de senaste accelerator-generationerna, AMD:s MI355X och MI455X, körs vid termiska områden som luft inte kan hantera effektivt. Vi pratar om 1400W+ TDP per GPU. Direkt vätskekylnings- avlägsnar värme vid källan via kallplattor eller nedsänkningsdesign, vilket gör tre saker för våra kunder. Först möjliggör det avsevärt högre hylltäthet, 120-300kW+ per hylla istället för 30 till 40kW, vilket komprimerar fotavtrycket och minskar kostnader per megawatt för fastigheter och eldistribution. Andra, det driver PUE mot 1,1, jämfört med 1,4 till 1,5 för äldre luftkylda anläggningar; på vår skala översätter det till tiotals miljoner dollar i årliga besparingar på el. Tredje, och ofta underapprecierad, DLC håller silikon vid lägre, mer stabila junctionstemperaturer, vilket bevarar hållbara klockhastigheter under långa utbildningspass och förlänger den användbara livslängden för hårdvaran. Den sista punkten är enormt viktig när man tecknar en sexårig tillgång.

Om UEC: Ultra Ethernet Consortium-specifikationen, som AMD hjälpte till att grunda och som nådde 1,0 2025, ger oss ett öppet, merchant-silicon-nätverk som möter eller överträffar InfiniBand på de mått som verkligen spelar roll för distribuerad utbildning. Tail-latens på insamling, effektiv bandbredd under konkurrens, och skalbeteende förbi 100 000 GPU-tröskeln. Kostnadshistorien är strukturell. Ethernet har ett halvt dussin trovärdiga merchant-silicon-leverantörer som konkurrerar om priset, jämfört med en ensamkälla-alternativ som har en väldokumenterad premie. För en 100MW-plats är valet av UEC-klart nätverk istället för proprietärt nätverk vanligtvis ett nio-siffrigt CAPEX-beslut, och de operativa fördelarna ackumuleras eftersom våra nätverksingenjörer redan känner till Ethernet.

Tillsammans låter dessa val oss leverera bättre utbildningsekonomi än äldre molntjänster. Kunderna ser högre effektiva FLOPs per dollar, snabbare stegtider på stora jobb, och en tydlig väg för framtiden när modellerna skalar. För oss betyder det en mer försvarbar kostnadsstruktur och flexibiliteten att erbjuda verkligt konkurrenskraftiga prislistor.

Kan du dela exempel på hur kunder använder TensorWave för att utbilda storskaliga AI-modeller?

TensorWaves kunder behöver högpresterande AI-beräkning utan GPU-brist, leverantörsbundenhet eller springande kostnader. TensorWave erbjuder exklusiv AMD-molntjänst – öppen, minnesoptimerad och produktionsklar, vilket ger teamen skalbar AI-infrastruktur som är tillgänglig, flexibel och kostnadseffektiv.

Till exempel valde Modular att köra sin MAX-inferensstack på TensorWaves AMD-GPU-infrastruktur eftersom TensorWave levererar avsevärt bättre kostnadsprestanda för storskalig AI-inferens. Genom att köra Modulars MAX på TensorWaves AMD-beräkning uppnår de upp till 70% lägre kostnad per miljon token, 57% snabbare genomströmning och lägre total kostnad än andra GPU-stackar.

Med Nvidias fortsatta dominans, var ser du de största möjligheterna för utmanare som TensorWave?

I ett AI-beräkningsutrymme som domineras av ett fåtal stora aktörer är de största utmaningarna att uppnå marknadstakt, leverera den senaste tekniken och erbjuda exceptionell support. Hyperscalers erbjuder ofta ett brett utbud av alternativ, men kämpar för att erbjuda den fokus eller personliga vägledning som kunderna behöver. För att bryta igenom detta dominerade utrymme fokuserar TensorWave på våra styrkor, samtidigt som vi samarbetar för att erbjuda den bästa tekniken som är möjlig och säkerställer att kunderna har alternativa alternativ.

De två största möjligheterna för utmanare av Nvidias AI-infrastrukturdominans är i öppna ekosystem och minne. Öppna ekosystem eliminerar låsning på varje nivå (hårdvara, interconnect och mjukvara). Dessutom minskar minne, i kombination med nätverksoptimerad utbildning/inferens, kostnadskurvan.

Om fem år, hur ser du framtiden för AI-infrastruktur och TensorWaves roll i den?

Under många år har målet för AI-infrastruktur varit att göra den bra, stabil och lätt att använda. Nästa fas kommer att handla om vad man kan leverera ovanpå det – hanterade tjänster, AI-som-en-tjänst, allt som hjälper kunder att distribuera och skala mer enkelt.

Vi är i början av en stor transformation. AI-tekniken fortsätter att förbättras, och alternativ som AMD blir alltmer trovärdiga. När det händer kommer kunderna att bli mer bekväma med att distribuera dem i stor skala, och hela ekosystemet kommer att börja öppnas och växa.

Tack för den utmärkta intervjun, alla som vill lära sig mer om detta innovativa AI-infrastrukturföretag bör besöka TensorWave.

Antoine är en visionär ledare och medgrundare av Unite.AI, driven av en outtröttlig passion för att forma och främja framtiden för AI och robotik. En serieentreprenör, han tror att AI kommer att vara lika omstörtande för samhället som elektricitet, och fångas ofta i extas över potentialen för omstörtande teknologier och AGI. Som en futurist, är han dedikerad till att utforska hur dessa innovationer kommer att forma vår värld. Dessutom är han grundare av Securities.io, en plattform som fokuserar på att investera i banbrytande teknologier som omdefinierar framtiden och omformar hela sektorer.