Connect with us

Darrick Horton, COO de TensorWave – Série d’entretiens

Entretiens

Darrick Horton, COO de TensorWave – Série d’entretiens

mm

Darrick Horton, COO de TensorWave, est un dirigeant et entrepreneur dans le domaine de la technologie, avec une expérience approfondie dans les infrastructures d’intelligence artificielle, le cloud computing et les systèmes matériels avancés. Avec une formation couvrant l’architecture des centres de données, les technologies de semi-conducteurs et l’informatique haute performance, il a joué un rôle central dans la mise à l’échelle des plates-formes de calcul d’intelligence artificielle de nouvelle génération. Avant son leadership chez TensorWave, Horton a travaillé sur des initiatives d’ingénierie avancées, notamment la recherche sur la fusion nucléaire chez Lockheed Martin’s Skunk Works, et a contribué à des projets de physique des plasmas et d’astrophysique financés par la NASA. Sa carrière reflète une concentration constante sur la résolution de défis techniques complexes et leur traduction en solutions d’infrastructure pratiques pour les technologies émergentes.

TensorWave est une entreprise d’infrastructure d’intelligence artificielle qui se concentre sur la fourniture de services de cloud computing haute performance alimentés par les GPU AMD, se positionnant comme une alternative aux écosystèmes d’intelligence artificielle plus fermés. Fondée en 2023 et basée à Las Vegas, l’entreprise construit des grappes de GPU à grande échelle optimisées pour la formation et le déploiement de modèles d’intelligence artificielle avancés, avec un accent sur les performances, la flexibilité et l’efficacité coût. En exploitant les écosystèmes de matériel et de logiciel ouverts, TensorWave vise à élargir l’accès aux ressources de calcul d’intelligence artificielle pour les entreprises, les chercheurs et les développeurs, permettant ainsi des charges de travail d’intelligence artificielle évolutives sans les contraintes de verrouillage traditionnel des fournisseurs.

Nvidia domine la majeure partie du marché des GPU – pourquoi avez-vous décidé de vous lancer à fond sur AMD, et quels avantages cette décision donne-t-elle à TensorWave et à ses clients ?

Après le lancement de ChatGPT, la demande d’intelligence artificielle a explosé. Les GPU ont été rapidement pris et Nvidia était pratiquement la seule option, si vous pouviez l’obtenir, et si vous pouviez vous permettre le coût. Cette pénurie a suscité un grand intérêt pour les alternatives. Maintenant que nous sommes passés au-delà de l’hype initial, il y a une véritable opportunité de remettre en question la domination de Nvidia avec des solutions accessibles, efficaces en termes de coût et faciles à utiliser.

En tant que startup, nous prenons toujours des décisions commerciales avec une forte concentration et un but. C’est pourquoi nous n’avons pas expérimenté avec Nvidia et que nous avons continué à développer nos capacités sur AMD. La prochaine phase de notre entreprise consiste à nous appuyer sur ces capacités ciblées afin que quiconque puisse se lancer et faire quelque chose de significatif avec l’intelligence artificielle. AMD est une alternative crédible avec une échelle de fabrication réelle, une posture de logiciel ouvert et une feuille de route de mémoire pour l’intelligence artificielle moderne.

Comment l’approche de TensorWave en matière d’infrastructure d’intelligence artificielle diffère-t-elle des fournisseurs de cloud de GPU traditionnels ?

Notre différenciation est simple : nous sommes le seul cloud exclusif AMD à grande échelle, qui vise à rétablir le choix dans le calcul d’intelligence artificielle, à briser la domination de Nvidia et à démocratiser l’accès. Mais cela concerne également notre éthos et notre engagement à apporter une véritable alternative sur le marché. Tout d’abord et avant tout, nous voulons fournir une infrastructure exceptionnelle basée sur AMD à grande échelle. À partir de là, nous allons étendre nos services de premier plan – Modèles en tant que service, Intelligence artificielle en tant que service, en rendant tout plus simple.

En tant que cloud exclusif AMD, nous avons une expérience logicielle spécifiquement conçue pour AMD dès le premier jour. Cette concentration nous permet d’optimiser le silicium, le réseau et le logiciel de bout en bout, en nous assurant que les équipes puissent évoluer lorsqu’elles en ont besoin.

Quel rôle joue votre partenariat stratégique avec AMD dans la croissance et la différenciation de TensorWave ?

C’est fondamental. AMD a investi dans TensorWave, nous a invités à la lancement de MI300X Instinct et nous continuons à collaborer étroitement sur le matériel, l’activation logicielle et la croissance de l’écosystème. Être un cloud exclusif AMD signifie que nous pouvons nous déplacer rapidement avec chaque génération d’Instinct, et servir de laboratoire vivant qui fournit, à grande échelle, des alternatives sur notre marché. Notre différenciation exclusive AMD nous a permis de travailler à un rythme qui n’est pas aussi réalisable sur le marché de l’infrastructure d’intelligence artificielle. Leur partenariat nous permet de combler les lacunes rapidement, d’expédier en premier les nouveaux GPU et de publier des performances réelles à grande échelle.

L’accès aux GPU reste un goulet d’étranglement majeur pour les équipes d’intelligence artificielle – comment TensorWave relève-t-il ce défi ?

Nous traitons ces goulets d’étranglement en premier lieu grâce à l’indépendance d’approvisionnement : en nous appuyant sur AMD, nous évitons les pires contraintes d’approvisionnement des autres fabricants de puces, et transmettons la disponibilité à nos clients.

Les lacunes dans l’écosystème de l’infrastructure d’intelligence artificielle existent parce que de nombreux acteurs construisent des solutions similaires, créant ainsi beaucoup de chevauchements. Cela provient souvent d’un manque de connaissance de ce qui se passe sur le marché. La première étape pour combler ces lacunes consiste à comprendre qui fait quoi, où il y a des opportunités de collaboration, où la concurrence peut stimuler l’innovation, et en fin de compte, comment l’écosystème peut s’améliorer dans son ensemble. Une lacune unique dans le marché de l’infrastructure d’intelligence artificielle est le pouvoir ; même si les GPU sont disponibles, il n’y a souvent pas assez d’énergie pour supporter le nombre croissant d’applications d’intelligence artificielle. Résoudre ces défis de ressources est la clé pour permettre une croissance et une innovation durables dans les années à venir.

Comment les fonctionnalités telles que le refroidissement liquide direct et la connectivité UEC (Universal Ethernet Consortium) améliorent-elles les performances et l’efficacité coût ?

Le refroidissement liquide direct et la connectivité UEC sont fondamentaux pour ce qui rend un cloud d’intelligence artificielle économiquement viable à grande échelle, et les deux sont centraux dans la façon dont nous avons conçu TensorWave.

Sur le DLC : les nouvelles générations d’accélérateurs, les MI355X et MI455X d’AMD, fonctionnent à des enveloppes thermiques que l’air ne peut pas gérer efficacement. Nous parlons de 1400W+ TDP par GPU. Le refroidissement liquide direct élimine la chaleur à la source via des conceptions de plaque froide ou d’immersion, ce qui fait trois choses pour nos clients. Premièrement, cela permet une densité de rack nettement plus élevée, 120-300kW+ par rack au lieu de 30 à 40kW, ce qui compressé l’empreinte et réduit les coûts de distribution de puissance et de réal estate par mégawatt. Deuxièmement, cela pousse le PUE vers 1,1, contre 1,4 à 1,5 pour les installations refroidies à l’air traditionnelles ; à notre échelle, cela se traduit par des dizaines de millions de dollars d’économies d’utilité annuelle. Troisièmement, et souvent sous-estimé, le DLC maintient le silicium à des températures de jonction plus basses et plus stables, ce qui préserve les taux d’horloge soutenus pendant les longues sessions de formation et prolonge la durée de vie utile du matériel. Ce dernier point est extrêmement important lorsque vous souscrivez un actif de six ans.

Sur l’UEC : la spécification Ultra Ethernet Consortium, qui a atteint 1,0 en 2025 et à laquelle AMD a contribué, nous donne un tissu de marchandises ouvert qui répond ou dépasse InfiniBand sur les métriques qui comptent vraiment pour la formation distribuée. La latence de queue, la bande passante efficace sous contention et le comportement d’évolutivité au-delà du seuil de 100 000 GPU. L’histoire des coûts est structurelle. L’Ethernet compte une demi-douzaine de fournisseurs de silicium marchand concurrents sur le prix, contre une alternative à source unique qui comporte un prime bien documenté. Pour un site de 100MW, choisir une connectivité UEC prête au lieu d’un tissu propriétaire est généralement une décision de CAPEX à neuf chiffres, et les avantages opérationnels s’accumulent car nos ingénieurs réseau connaissent déjà l’Ethernet.

Pris ensemble, ces choix nous permettent de fournir une meilleure économie de formation que les clouds traditionnels. Les clients voient des FLOPs effectifs plus élevés par dollar, des temps de pas plus prévisibles sur les grands travaux et une voie claire pour les modèles à l’échelle. Pour nous, cela signifie une structure de coûts plus défendable et la flexibilité d’offrir des tarifs de taux réellement concurrentiels.

Pouvez-vous partager des exemples de la façon dont les clients utilisent TensorWave pour former de grands modèles d’intelligence artificielle ?

Les clients de TensorWave ont besoin d’un calcul d’intelligence artificielle haute performance sans pénurie de GPU, de verrouillage de fournisseur ou de coûts déraisonnables. TensorWave fournit un cloud exclusif AMD – ouvert, optimisé pour la mémoire et prêt pour la production, ce qui donne aux équipes une infrastructure d’intelligence artificielle évolutives qui est accessible, flexible et efficace en termes de coût.

Par exemple, Modular a choisi d’exécuter sa pile d’inférence MAX sur l’infrastructure de GPU AMD de TensorWave car TensorWave offre une économie de coût et de performance nettement meilleure pour l’inférence d’intelligence artificielle à grande échelle. En exécutant la pile MAX de Modular sur le calcul AMD de TensorWave, ils atteignent jusqu’à 70 % de réduction du coût par million de jetons, 57 % de débit plus rapide et un coût global inférieur à celui des autres piles de GPU.

Avec la domination continue de Nvidia, où voyez-vous les plus grandes opportunités pour les challengers comme TensorWave ?

Dans un espace de calcul d’intelligence artificielle dominé par quelques grands acteurs, les plus grands défis sont d’atteindre la vitesse de mise sur le marché, de fournir la dernière technologie et d’offrir un soutien exceptionnel. Les hyperscalers offrent souvent une large gamme d’options, mais ont du mal à fournir la concentration ou les conseils personnalisés dont les clients ont besoin. Pour percer dans cet espace dominé, TensorWave se concentre sur ses forces, tout en collaborant pour fournir la meilleure technologie possible et en veillant à ce que les clients aient des options alternatives.

Les deux plus grandes opportunités pour les challengers de la domination de l’infrastructure d’intelligence artificielle de Nvidia sont les écosystèmes ouverts et la mémoire. Les écosystèmes ouverts éliminent le verrouillage à chaque couche (matériel, interconnecteur et logiciel). De plus, la mémoire associée à la formation et à l’inférence optimisée pour le réseau inverse la courbe de coût.

En regardant cinq ans à l’avance, comment imaginez-vous l’avenir de l’infrastructure d’intelligence artificielle et le rôle de TensorWave dans celui-ci ?

Pendant des années, l’objectif dans l’infrastructure d’intelligence artificielle était de la rendre bonne, stable et facile à utiliser. La prochaine phase consistera à fournir ce qui peut être livré au-dessus de cela – des services gérés, de l’intelligence artificielle en tant que service, tout ce qui aide les clients à déployer et à évoluer plus facilement.

Nous sommes au début d’une grande transformation. La technologie d’intelligence artificielle continue de progresser, et des alternatives comme AMD deviennent de plus en plus viables. À mesure que cela se produit, les clients deviendront plus à l’aise pour les déployer à grande échelle, et l’ensemble de l’écosystème commencera à s’ouvrir et à grandir.

Je vous remercie pour cette excellente interview, quiconque souhaitant en savoir plus sur cette entreprise innovante d’infrastructure d’intelligence artificielle devrait visiter TensorWave.

Antoine est un leader visionnaire et partenaire fondateur de Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Un entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et se fait souvent prendre en train de vanter le potentiel des technologies perturbatrices et de l'AGI.
En tant que futurist, il se consacre à explorer comment ces innovations vont façonner notre monde. En outre, il est le fondateur de Securities.io, une plateforme axée sur l'investissement dans les technologies de pointe qui redéfinissent l'avenir et remodelent des secteurs entiers.