Connect with us

Darrick Horton, COO společnosti TensorWave – Interview Series

Rozhovory

Darrick Horton, COO společnosti TensorWave – Interview Series

mm

Darrick Horton, COO společnosti TensorWave, je technologický manažer a podnikatel s hlubokými zkušenostmi v oblasti infrastruktury umělé inteligence, cloud computingu a pokročilých hardwarových systémů. S pozadím sahajícím od architektury datových center, polovodičových technologií a high-performance computingu sehrál ústřední roli při škálování platform pro výpočet umělé inteligence nové generace. Předtím, než se stal lídrem společnosti TensorWave, Horton pracoval na pokročilých inženýrských projektech, včetně výzkumu jaderné fúze ve společnosti Lockheed Martin’s Skunk Works, a přispěl do projektů financovaných NASA v oblasti plazmové fyziky a astrofyziky. Jeho kariéra odráží stálé zaměření na řešení složitých, velkých technických problémů a jejich překlad do praktických infrastrukturních řešení pro vznikající technologie.

TensorWave je společnost pro infrastrukturu umělé inteligence, která se zaměřuje na poskytování высокovýkonného cloud computingu s využitím GPU od AMD, a tím se позиcionuje jako alternativa k více uzavřeným ekosystémům umělé inteligence. Založena v roce 2023 a se sídlem v Las Vegas, společnost buduje velké klastry GPU optimalizované pro školení a nasazení pokročilých modelů umělé inteligence, s důrazem na výkon, flexibilitu a nákladovou efektivitu. Díky využívání otevřených hardwarových a softwarových ekosystémů si společnost TensorWave klade za cíl rozšířit přístup k výkonným zdrojům umělé inteligence pro podniky, výzkumníky a vývojáře, a umožnit tak škálovatelné úkoly umělé inteligence bez omezení tradiční závislosti na dodavateli.

Nvidia dominuje většinu trhu s GPU — proč jste se rozhodli vsadit vše na AMD, a jaké výhody tato volba přináší společnosti TensorWave a jejím zákazníkům?

Po spuštění ChatGPT vzrostla poptávka po umělé inteligenci. GPU se rychle rozprodala, a NVIDIA byla prakticky jedinou možností, pokud jste ji mohli získat, a pokud jste mohli zvládnout náklady. Tento nedostatek vyvolal obrovský zájem o alternativy. Nyní, když jsme za touto počáteční hysterií, existuje skutečná příležitost zpochybnit dominanci NVIDIA s řešeními, která jsou dostupná, nákladově efektivní a snadno použitelná.

Jako startup jsme vždy činili obchodní rozhodnutí s pevným zaměřením a účelem. Proto jsme neexperimentovali s NVIDIA, a pokračovali jsme v budování našich schopností na platformě AMD. Další fáze naší společnosti spočívá v tom, že se budeme soustředit na tyto zaměřené schopnosti, aby kdokoli mohl snadno něco udělat s umělou inteligencí. AMD je důvěryhodnou alternativou s reálnou výrobní kapacitou, otevřenou softwarovou pozicí a roadmapou pro moderní umělou inteligenci s důrazem na paměť.

Jak se přístup společnosti TensorWave k infrastruktuře umělé inteligence liší od tradičních poskytovatelů cloud computingu?

Naše odlišení je přímé: jsme jediným cloudem výhradně pro AMD v velkém měřítku, který se snaží obnovit volbu v oblasti výpočtu umělé inteligence, prolomit dominanci NVIDIA a demokratizovat přístup. Ale jde také o naši etiku a závazek přinést skutečnou alternativu na trh. Především chceme poskytovat výjimečnou infrastrukturu založenou na AMD v velkém měřítku. Odtud budeme expandovat do špičkových služeb postavených na této infrastruktuře — Modely jako služba, Umělá inteligence jako služba, a učinit vše jednodušší.

Jako cloud výhradně pro AMD máme softwarové zkušenosti vytvořené speciálně pro AMD od samého počátku. Tento zaměřený přístup nám umožňuje optimalizovat polovodiče, síť a software od konce do konce, zajišťující, že týmy mohou škálovat, když potřebují.

Jakou roli hraje vaše strategické partnerství s AMD ve růstu a odlišení společnosti TensorWave?

Je to zásadní. AMD investovala do společnosti TensorWave, pozvala nás do programu MI300X Instinct a pokračujeme v úzké spolupráci na hardwaru, softwarovém umožnění a růstu ekosystému. Jako cloud výhradně pro AMD můžeme pohybovat rychle s každou generací Instinct a sloužit jako živý laboratorní prostor, který poskytuje v našem trhu alternativy. Naše odlišení jako cloudu výhradně pro AMD nám umožnilo pracovat v tempu, které není tak dosažitelné na trhu s infrastrukturou umělé inteligence. Partnerství s AMD nám umožňuje rychle uzavírat mezery, dodávat jako první nové GPU a publikovat reálný výkon v velkém měřítku.

Přístup k GPU zůstává významnou překážkou pro týmy umělé inteligence — jak společnost TensorWave řeší tuto výzvu?

Řešíme tyto překážky nejprve prostřednictvím nezávislosti na dodávkách: stavěním na AMD, vyhýbáme se nejhorším omezením dodávek u jiných výrobců čipů, a předáváme dostupnost zákazníkům. Nezávislost na dodávkách prostřednictvím AMD zajišťuje, že naši zákazníci nejsou uvězněni v čekací frontě jako všichni ostatní.

Mezery v ekosystému infrastruktury umělé inteligence existují, protože tolik hráčů buduje podobná řešení, což vytváří mnoho překryvů. To často pramení z nedostatku povědomí o tom, co se děje na trhu. První krok k uzavření těchto mezer spočívá v pochopení, kdo dělá co, kde existují příležitosti pro spolupráci, kde může konkurence pohánět inovace, a nakonec, jak může ekosystém jako celek zlepšit. Jedinečná mezera na trhu s infrastrukturou umělé inteligence spočívá v oblasti energie; i když jsou GPU dostupné, často chybí dostatek energie na podporu rostoucího počtu aplikací umělé inteligence. Řešení těchto výzev zdrojů jsou našim klíčem k umožnění udržitelného růstu a inovací v budoucnu.

Jak funkce, jako je přímé kapalné chlazení a síťové připojení UEC (Universal Ethernet Consortium), zvyšují výkon a nákladovou efektivitu?

Přímé kapalné chlazení a síťové připojení UEC jsou zásadní pro to, co činí moderní cloud pro umělou inteligenci ekonomicky životaschopný v velkém měřítku, a obě tyto funkce jsou centrální pro to, jak jsme navrhli společnost TensorWave.

U DLC: nejnovější generace urychlovačů, AMD MI355X a MI455X, běží v tepelných obalech, které vzduch nemůže efektivně zpracovat. Mluvíme o 1400W+ TDP na GPU. Přímé kapalné chlazení odstraňuje teplo zdroje prostřednictvím chladicí desky nebo ponořením, což pro naše zákazníky dělá tři věci. První, umožňuje podstatně vyšší hustotu racků, 120-300kW+ na rack místo 30 až 40kW, což komprimuje stopu a snižuje náklady na nemovitosti a distribuci energie. Druhé, pohání PUE směrem k 1,1, oproti 1,4 až 1,5 pro tradiční zařízení chlazená vzduchem; v našem měřítku se to překládá do desítek milionů dolarů v ročních úsporách na utilitách. Třetí, a často podceňované, DLC udržuje polovodiče při nižších, stabilnějších teplotách spoje, což prodlužuje životnost hardwaru. Tento poslední bod má enormní význam, když podstupujete šestiletou investici do aktiv.

U UEC: specifikace Ultra Ethernet Consortium, které AMD pomohlo založit a které dosáhlo verze 1.0 v roce 2025, nám poskytuje otevřenou, merchant-siliconovou tkaninu, která splňuje nebo překonává InfiniBand v metrikách, které skutečně záleží pro distribuované školení. Latence na kolektivech, efektivní šířka pásma pod soutěží a škálovací chování za prahem 100 000 GPU. Příběh nákladů je strukturální. Ethernet má půl tuctu věrohodných merchant-siliconových dodavatelů, kteří soutěží o cenu, oproti jedinému zdroji, který nese dobře zdokumentovanou prémii. Pro lokalitu o velikosti 100MW je výběr síťového připojení UEC oproti proprietární tkanině typicky devítimístné rozhodnutí CAPEX, a provozní výhody se sčítají, protože naši síťoví inženýři již znají Ethernet.

Vzato вместе, tyto volby nám umožňují dodávat lepší ekonomiku školení než tradiční cloudy. Zákazníci vidí vyšší efektivní FLOPs na dolar, předvídatelnější časy kroků u velkých úloh a jasnou dráhu pro škálování modelů. Pro nás to znamená více obhajitelnou nákladovou strukturu a flexibilitu nabízet skutečně konkurenceschopné sazby.

Můžete sdílet příklady toho, jak zákazníci využívají společnost TensorWave k školení velkých modelů umělé inteligence?

Zákazníci společnosti TensorWave potřebují high-performance výpočetní prostředky pro umělou inteligenci bez nedostatku GPU, uzamčení u dodavatele nebo nekontrolovatelných nákladů. Společnost TensorWave poskytuje exkluzivní cloud pro AMD – otevřený, optimalizovaný pro paměť a připravený pro produkci, což poskytuje týmům škálovatelnou infrastrukturu umělé inteligence, která je dostupná, flexibilní a nákladově efektivní.

Například společnost Modular se rozhodla spustit svůj stack inferencí MAX na infrastruktuře GPU společnosti TensorWave, protože TensorWave nabízí podstatně lepší ekonomiku nákladů a výkonu pro large-scale inferenci umělé inteligence. Spuštěním MAX na výpočetním prostředí AMD společnosti TensorWave dosáhli až o 70 % nižších nákladů na milion tokenů, 57% rychlejší propustnosti a nižších celkových nákladů než u jiných GPU stacků.

S pokračující dominancí NVIDIA, kde vidíte největší příležitosti pro výzvy, jako je společnost TensorWave?

V prostoru výpočtu umělé inteligence, který dominují několik hlavních hráčů, největšími výzvami jsou dosažení rychlosti na trh, dodání nejnovější technologie a poskytnutí výjimečné podpory. Hyperscalery často nabízejí širokou škálu možností, ale bojují s poskytováním zaměření nebo personalizované rady, kterou zákazníci potřebují. Abychom prorazili tento dominovaný prostor, společnost TensorWave se soustředí na naše silné stránky, zatímco spolupracujeme na poskytování nejlepší možné technologie a zajišťujeme, aby zákazníci měli alternativní možnosti.

Dvě největší příležitosti pro výzvy dominance NVIDIA v oblasti infrastruktury umělé inteligence spočívají v otevřených ekosystémech a paměti. Otevřené ekosystémy eliminují uzamčení na každé úrovni (hardware, interconnect, software). Kromě toho paměť v kombinaci se sítí optimalizovanou pro školení/inferenci otočí křivku nákladů.

Pohledem pět let dopředu, jak si představujete budoucnost infrastruktury umělé inteligence a roli společnosti TensorWave v ní?

Po mnoho let byl cílem infrastruktury umělé inteligence udělat ji dobrou, stabilní a snadno použitelnou. Další fáze bude o tom, co můžete dodat na tomto základě — spravované služby, umělá inteligence jako služba, cokoliv, co pomáhá zákazníkům nasazovat a škálovat snadněji.

Nacházíme se na počátku velké transformace. Technologie umělé inteligence pokračuje ve vývoji, a alternativy, jako je AMD, se stávají stále více životaschopnými. Jak se to děje, zákazníci se budou cítit více pohodlně při nasazování těchto technologií v velkém měřítku, a celý ekosystém začne otevírat a růst.

Děkuji za skvělý rozhovor, kdokoli, kdo chce se更多 o této inovativní společnosti pro infrastrukturu umělé inteligence, by měl navštívit TensorWave.

Antoine je vizionářský líder a zakládající partner Unite.AI, poháněný neotřesitelnou vášní pro formování a propagaci budoucnosti AI a robotiky. Jako sériový podnikatel věří, že AI bude mít na společnost stejně disruptivní vliv jako elektřina, a často je chycen při tom, jak hovoří o potenciálu disruptivních technologií a AGI. Jako futurist, je zasvěcen prozkoumání toho, jak tyto inovace budou formovat náš svět. Kromě toho je zakladatelem Securities.io, platformy zaměřené na investice do špičkových technologií, které předefinovávají budoucnost a mění celé sektory.