Connect with us

Piotr Tomasik, Co-Fondateur et Président de TensorWave – Série d’entretiens

Entretiens

Piotr Tomasik, Co-Fondateur et Président de TensorWave – Série d’entretiens

mm

Piotr Tomasik, Co-Fondateur et Président de TensorWave, est un entrepreneur expérimenté dans le domaine de la technologie et un dirigeant d’infrastructure d’IA avec plus de deux décennies d’expérience couvrant l’IA, le SaaS, le cloud computing, la fintech et l’économie créative. Avant de co-fonder TensorWave en 2023, il a co-fondé Influential, une plate-forme de marketing d’influence alimentée par l’IA, qui a été acquise par Publicis pour environ 500 millions de dollars, où il a occupé le poste de CTO avant de passer à un rôle consultatif.

Au cours de sa carrière, Tomasik a également fondé ou dirigé des entreprises telles que Lets Rolo, On Guard Data et ActiveSide, tout en occupant des postes de direction dans les domaines de la technologie chez CARD.com et Marker Trax. En plus de ses rôles opérationnels, il est associé général au fonds 1864 et co-fondateur de StartUp Vegas, où il soutient activement l’écosystème des startups de Las Vegas et les talents émergents dans le domaine de la technologie. Diplômé en informatique de l’UNLV et leader technologique reconnu, Tomasik est devenu connu pour avoir contribué à positionner TensorWave en tant que société de infrastructure de calcul d’IA à croissance rapide, axée sur les plates-formes cloud à grande échelle alimentées par les accélérateurs AMD.

TensorWave est une société d’infrastructure d’IA axée sur la fourniture de services de cloud computing à haute performance alimentés par les GPU AMD, se positionnant comme une alternative aux écosystèmes d’IA plus fermés. Fondée en 2023 et basée à Las Vegas, l’entreprise construit des grappes de GPU à grande échelle optimisées pour la formation et le déploiement de modèles d’IA avancés, avec un accent sur les performances, la flexibilité et l’efficacité coûts. En exploitant les écosystèmes de matériel et de logiciel ouverts, TensorWave vise à élargir l’accès aux ressources de calcul d’IA puissantes pour les entreprises, les chercheurs et les développeurs, permettant ainsi des charges de travail d’IA évolutives sans les contraintes de verrouillage de fournisseur traditionnel.

Nvidia domine la majorité du marché des GPU – pourquoi avez-vous décidé de miser tout sur AMD, et quels avantages cette décision apporte-t-elle à TensorWave et à ses clients ?

Suite au lancement de ChatGPT, la demande d’IA a explosé. Les GPU ont été rapidement vendus, et NVIDIA était pratiquement la seule option si vous pouviez l’obtenir, et si vous pouviez vous permettre le coût. Cette pénurie a suscité un grand intérêt pour les alternatives. Maintenant que nous sommes passés au-delà de l’hype initial, il y a une véritable opportunité de remettre en question la domination de Nvidia avec des solutions accessibles, efficaces en termes de coûts et faciles à utiliser.

En tant que startup, nous prenons toujours des décisions commerciales avec un fort accent et un but. C’est pourquoi nous n’avons pas expérimenté avec Nvidia, et que nous continuons à développer nos capacités sur AMD. La prochaine phase de notre entreprise consiste à nous appuyer sur ces capacités ciblées afin que quiconque puisse se lancer et faire quelque chose de significatif avec l’IA. AMD est une alternative crédible avec une véritable échelle de fabrication, une posture de logiciel ouvert et une feuille de route de mémoire pour l’IA moderne.

Comment l’approche de TensorWave en matière d’infrastructure d’IA diffère-t-elle des fournisseurs de cloud de GPU traditionnels ?

Notre différenciation est simple : nous sommes le seul cloud exclusif AMD à grande échelle, qui vise à rétablir le choix dans le calcul d’IA, à briser la domination de Nvidia et à démocratiser l’accès. Mais cela concerne également notre éthos et notre engagement à apporter une véritable alternative sur le marché. Tout d’abord et avant tout, nous voulons fournir une infrastructure exceptionnelle basée sur AMD à grande échelle. À partir de là, nous allons élargir nos services de niveau supérieur – des modèles en tant que service, l’IA en tant que service, en rendant tout plus simple.

En tant que cloud exclusif AMD, nous avons une expérience logicielle spécifiquement conçue pour AMD dès le premier jour. Cette focalisation nous permet d’optimiser le silicium, le réseau et le logiciel de bout en bout, en veillant à ce que les équipes puissent évoluer lorsqu’elles en ont besoin.

Quel rôle joue votre partenariat stratégique avec AMD dans la croissance et la différenciation de TensorWave ?

C’est fondamental. AMD a investi dans TensorWave, nous a invités au lancement de MI300X Instinct et nous continuons à collaborer étroitement sur le matériel, l’activation logicielle et la croissance de l’écosystème. Être un cloud exclusif AMD signifie que nous pouvons avancer rapidement avec chaque génération d’Instinct, et servir de laboratoire vivant qui fournit, à grande échelle, des alternatives sur notre marché. Notre différenciation exclusive AMD nous a permis de travailler à un rythme qui n’est pas aussi réalisable sur le marché de l’infrastructure d’IA. Leur partenariat nous permet de combler les lacunes rapidement, d’expédier en premier sur les nouveaux GPU et de publier des performances réelles à grande échelle.

L’accès aux GPU reste un goulet d’étranglement majeur pour les équipes d’IA – comment TensorWave relève-t-il ce défi ?

Nous abordons ces goulets d’étranglement en premier lieu grâce à l’indépendance d’approvisionnement : en nous appuyant sur AMD, nous évitons les pires contraintes d’approvisionnement des autres fabricants de puces, et nous passons la disponibilité à nos clients.

Les lacunes dans l’écosystème de l’infrastructure d’IA existent parce que de nombreux acteurs construisent des solutions similaires, créant ainsi beaucoup de chevauchements. Cela provient souvent d’un manque de connaissance de ce qui se passe sur le marché. La première étape pour combler ces lacunes consiste à comprendre qui fait quoi, où il y a des opportunités de collaboration, où la concurrence peut stimuler l’innovation, et en fin de compte, comment l’écosystème peut s’améliorer dans son ensemble. Une lacune unique dans le marché de l’infrastructure d’IA est le pouvoir ; même si les GPU sont disponibles, il n’y a souvent pas suffisamment d’énergie pour soutenir le nombre croissant d’applications d’IA. Résoudre ces défis de ressources est notre clé pour permettre une croissance et une innovation durables dans les années à venir.

Comment les fonctionnalités telles que le refroidissement liquide direct et les réseaux prêts UEC (Universal Ethernet Consortium) améliorent-elles les performances et l’efficacité coûts ?

Le refroidissement liquide direct et les réseaux prêts UEC sont fondamentaux pour ce qui rend un cloud d’IA moderne économiquement viable à grande échelle, et les deux sont centraux dans la façon dont nous avons conçu TensorWave.

Sur le DLC : les nouvelles générations d’accélérateurs, les MI355X et MI455X d’AMD, fonctionnent à des enveloppes thermiques que l’air ne peut pas gérer efficacement. Nous parlons de 1400W+ TDP par GPU. Le refroidissement liquide direct élimine la chaleur à la source via une plaque froide ou des conceptions d’immersion, ce qui fait trois choses pour nos clients. Premièrement, cela permet une densité de rack nettement plus élevée, 120-300kW+ par rack au lieu de 30 à 40kW, ce qui compressé l’empreinte et réduit les coûts de megawatt de terrain et de distribution d’énergie. Deuxièmement, cela pousse le PUE vers 1,1, contre 1,4 à 1,5 pour les installations refroidies à l’air traditionnelles ; à notre échelle, cela se traduit par des dizaines de millions de dollars d’économies d’énergie annuelles. Troisièmement, et souvent sous-estimé, le DLC maintient le silicium à des températures de jonction plus basses et plus stables, ce qui préserve les taux d’horloge soutenus pendant les longues sessions de formation et prolonge la durée de vie utile du matériel. Ce dernier point compte énormément lorsque vous souscrivez à un actif de six ans.

Sur UEC : la spécification du consortium Ethernet Ultra, qui a été aidée par AMD et qui a atteint la version 1.0 en 2025, nous donne un tissu marchand ouvert qui égale ou dépasse InfiniBand sur les métriques qui comptent vraiment pour la formation distribuée. La latence de queue, la bande passante effective sous contention et le comportement de mise à l’échelle au-delà du seuil de 100 000 GPU. L’histoire des coûts est structurelle. L’Ethernet compte une demi-douzaine de fournisseurs de silicium marchand concurrents sur le prix, contrairement à une alternative à source unique qui comporte une prime bien documentée. Pour un site de 100 MW, choisir un réseau prêt UEC plutôt qu’un tissu propriétaire est généralement une décision de CAPEX à neuf chiffres, et les avantages opérationnels se cumulent car nos ingénieurs réseau connaissent déjà l’Ethernet.

Pris ensemble, ces choix nous permettent de fournir une meilleure économie de formation que les clouds traditionnels. Les clients voient des FLOPs effectifs plus élevés par dollar, des temps d’étape plus prévisibles pour les grands travaux et une voie claire à mesure que les modèles sont mis à l’échelle. Pour nous, cela signifie une structure de coûts plus défendable et la flexibilité d’offrir des tarifs de taux réellement concurrentiels.

Pouvez-vous partager des exemples de la façon dont les clients utilisent TensorWave pour former des modèles d’IA à grande échelle ?

Les clients de TensorWave ont besoin d’un calcul d’IA à haute performance sans pénurie de GPU, de verrouillage de fournisseur ou de coûts déraisonnables. TensorWave fournit un cloud AMD exclusif – ouvert, optimisé pour la mémoire et prêt pour la production, ce qui donne aux équipes une infrastructure d’IA évolutives qui est accessible, flexible et efficace en termes de coûts.

Par exemple, Modular a choisi d’exécuter sa pile d’inférence MAX sur l’infrastructure de GPU AMD de TensorWave car TensorWave offre une économie de coûts et de performances nettement meilleure pour l’inférence d’IA à grande échelle. En exécutant la pile MAX de Modular sur le calcul AMD de TensorWave, ils atteignent jusqu’à 70 % de réduction des coûts par million de jetons, 57 % de débit plus rapide et moins de coûts globaux que les autres piles de GPU.

Avec la domination continue de Nvidia, où voyez-vous les plus grandes opportunités pour les challengers comme TensorWave ?

Dans un espace de calcul d’IA dominé par quelques grands acteurs, les plus grands défis sont d’atteindre la vitesse de marché, de fournir la dernière technologie et d’offrir un soutien exceptionnel. Les hyperscalers offrent souvent une large gamme d’options, mais ont du mal à fournir le focus ou les conseils personnalisés dont les clients ont besoin. Pour percer dans cet espace dominé, TensorWave se concentre sur ses forces, tout en collaborant pour fournir la meilleure technologie possible et en veillant à ce que les clients aient des options alternatives.

Les deux plus grandes opportunités pour les challengers de la domination de l’infrastructure d’IA de NVIDIA sont dans les écosystèmes ouverts et la mémoire. Les écosystèmes ouverts éliminent le verrouillage à chaque couche (matériel, interconnecteur et logiciel). De plus, la mémoire associée à la formation et à l’inférence optimisée pour le réseau inverse la courbe de coûts.

En regardant cinq ans à l’avance, comment voyez-vous l’avenir de l’infrastructure d’IA et le rôle de TensorWave dans celui-ci ?

Pendant des années, l’objectif de l’infrastructure d’IA était de la rendre bonne, stable et facile à utiliser. La prochaine phase consistera à ce que vous pouvez fournir par-dessus – des services gérés, l’IA en tant que service, tout ce qui aide les clients à déployer et à mettre à l’échelle plus facilement.

Nous sommes au début d’une grande transformation. La technologie d’IA continue de progresser, et des alternatives comme AMD deviennent de plus en plus viables. À mesure que cela se produit, les clients deviendront plus à l’aise pour les déployer à grande échelle, et l’ensemble de l’écosystème commence à s’ouvrir et à grandir.

Je vous remercie pour cette grande interview, quiconque voulant en savoir plus sur cette société innovante d’infrastructure d’IA devrait visiter TensorWave.

Antoine est un leader visionnaire et partenaire fondateur de Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Un entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et se fait souvent prendre en train de vanter le potentiel des technologies perturbatrices et de l'AGI.
En tant que futurist, il se consacre à explorer comment ces innovations vont façonner notre monde. En outre, il est le fondateur de Securities.io, une plateforme axée sur l'investissement dans les technologies de pointe qui redéfinissent l'avenir et remodelent des secteurs entiers.