Entretiens
Saurabh Giri, CPTO de Voltage Park – Série d’entretiens

Saurabh Giri est le directeur des produits et de la technologie de Voltage Park et est un directeur exécutif de son conseil d’administration. Il est responsable de la conduite de la vision stratégique de l’entreprise, de la définition de sa feuille de route produit et de la direction des opérations d’ingénierie. Auparavant, Saurabh a dirigé des équipes qui ont conçu, lancé et exploité Amazon Bedrock, la plate-forme d’Amazon pour l’intelligence artificielle générative. Plus tôt dans sa carrière, Saurabh a co-fondé et a été le PDG d’une plate-forme de paiement de nouvelle génération ; co-fondé une société de trading algorithmique spécialisée dans la création de marché et l’arbitrage de courbe sur les marchés à terme ; et a conseillé les conseils d’administration et les équipes de direction sur la stratégie, les opérations et les questions financières.
La mission de Voltage Park est d’aider les entreprises à transformer les données en intelligence commerciale à l’aide de l’IA, en rendant l’infrastructure d’IA accessible à tous. Avec des dizaines de milliers de GPU dans six centres de données, Voltage Park offre un matériel et un service client de classe mondiale à une valeur incroyable – qu’il s’agisse d’un chercheur, d’une startup ou d’une grande entreprise.
Vous avez travaillé dans des startups et dans l’un des plus grands fournisseurs de cloud au monde. Qu’est-ce qui vous a initialement attiré dans le monde de l’infrastructure et de l’IA ?
L’IA générative va être transformationnelle d’une manière qui n’a pas été vue depuis peu de technologies au cours du dernier siècle. Ce qui est possible aujourd’hui avec des modèles de frontière comme OpenAI’s GPT-5 aurait été inconcevable il y a dix ans et surprenant même il y a trois ans.
Nous sommes encore dans les premiers stades. L’attrait pour moi est l’opportunité de façonner la couche d’infrastructure qui détermine comment une technologie si profonde sera exploitée – pour la science, pour l’industrie et pour la société dans son ensemble.
À AWS, vous avez aidé à construire Amazon Bedrock. Quelles leçons d’ingénierie de produit de cette expérience appliquez-vous à Voltage Park ?
Amazon Bedrock a ouvert de nouvelles voies dans de nombreux domaines, et je suis vraiment fier de ce que l’équipe Bedrock a pu accomplir rapidement. L’insight clé de Bedrock était que les constructeurs avaient besoin d’une couche d’abstraction qui rendait le choix de modèle et la modalité transparents – les libérant pour se concentrer sur la construction de solutions plutôt que sur la gestion de la complexité de l’infrastructure. C’était la première plate-forme de l’industrie à offrir un accès sans faille à plusieurs modèles de base – texte, vision et multimodal – sans exiger que les équipes naviguent dans des API ou des contraintes matérielles spécifiques au modèle.
Les capacités des modèles de base avancent à un rythme stupéfiant – plus rapide que les changements technologiques antérieurs tels que le cloud computing, le mobile ou même l’internet lui-même. Mon équipe Bedrock a livré l’innovation à cette vitesse, en anticipant où les capacités des modèles seraient deux ou trois générations à l’avance et en construisant pour cet avenir.
À Voltage Park, nous appliquons le même principe : aller vite pour livrer une infrastructure et des abstractions logicielles de pointe qui résolvent les points de douleur d’aujourd’hui tout en ingénieriant pour où la technologie est orientée et ce dont les clients auront besoin lorsque la technologie de demain arrivera.
Quels ont été les plus grands changements techniques et culturels en passant d’un hyperscaler à une startup efficiente en capital comme Voltage Park ?
Dans un hyperscaler, l’ingénierie existe à l’intérieur d’un écosystème vaste et mature – outils, conformité, marketing, livraison client – où le tout dépasse la somme de ses parties. Dans une startup, vous échangez ces vents arrières pour la vitesse, la cohésion et l’impact. Il n’y a pas de bureaucratie étendue pour vous ralentir, mais il n’y a pas non plus de scaffolding préconstruit – vous devez le créer vous-même. La récompense est la cohésion culturelle et la capacité à livrer des produits à impact élevé en une fraction du temps.
Voltage Park possède plus de 24 000 GPU H100 et offre un accès bare-metal à des prix compétitifs. Quels segments de clients visez-vous principalement ?
Notre plate-forme s’étend sur le bare metal, les machines virtuelles, les Kubernetes gérés, les Slurm gérés et un ensemble de logiciels complémentaires conçu pour les charges de travail d’IA. Nous servons quiconque construit des produits d’IA ou construit avec l’IA : chercheurs, startups et entreprises. Certains des constructeurs de modèles les plus sophistiqués au monde aujourd’hui, tels que Cursor, qui pousse l’état de l’art en science et en ingénierie du machine learning, forment leurs modèles sur Voltage Park. De même, de nombreuses sociétés de produits d’IA bien connues exécutent des charges de travail d’inférence à Voltage Park. Pour les entreprises, nous réduisons à la fois le coût et les seuils d’expertise pour passer facilement d’un prototype à une production et faire des charges de travail de manière fiable.
Comment gérez-vous la consommation d’énergie, l’efficacité coût et la durabilité à mesure que vous développez votre empreinte d’infrastructure ?
Nous avons effectué et continuons à effectuer des investissements importants pour faire fonctionner nos centres de données de manière efficace. Nous avons réalisé des gains significatifs en termes de consommation d’énergie et de coût grâce à des innovations telles que la maintenance prédictive basée sur l’IA, qui réduit les temps d’arrêt et évite les gaspillages par rapport à un service réactif. La majorité de notre empreinte actuelle est alimentée par une énergie renouvelable et verte à 99 % ou plus, et ce ratio augmentera à mesure que nous nous développerons.
Comment les partenariats et les normes façonnent-ils l’évolution de Voltage Park en tant que fournisseur d’infrastructure d’IA full-stack ?
Nous nous associons à des sociétés qui font passer l’IA de théorique à transformationnel. Un bon exemple est notre investissement dans Matrice.ai, où nous avons dirigé leur expansion de graines. Leur expertise de domaine dans les modèles de vision permet à nos clients de convertir les pixels en intelligence avec des solutions spécifiques aux secteurs d’activité à travers plusieurs industries. Nous allons continuer à fournir la colonne vertébrale de l’infrastructure d’IA aux fournisseurs de modèles pour déployer leurs modèles dans un ensemble matériel-logiciel modulaire qui offre des performances sans compromettre la sécurité ou la confidentialité des données.
Nous sommes également un contributeur actif à la communauté open-source – en soutenant, par exemple, SGLang en tant que partenaire d’infrastructure pour apporter des projets open-source de haute qualité comme SpecForge à la communauté. Et nous nous sommes associés à la Fondation nationale des sciences des États-Unis pour soutenir le projet pilote de ressource nationale de recherche en IA (NAIRR), une initiative public-privée pour élargir l’accès aux outils d’IA de pointe pour les chercheurs et les éducateurs à l’échelle nationale.
Quelles fonctionnalités de gestion d’entreprise, d’auditabilité ou de sécurité donnez-vous la priorité pour les développeurs d’IA ?
La sécurité, la confidentialité des données et la conformité sont des fonctionnalités fondamentales de notre plate-forme d’usine d’IA, et nos clients ont l’esprit tranquille de travailler avec une pile d’entreprise de niveau. À mesure que nous développons notre pile logicielle pour résoudre d’autres points de douleur des clients, nous ajoutons des fonctionnalités telles que des autorisations de ressources et de données granulaires, des traces d’audit à plusieurs niveaux, des garde-fous de sécurité et une intégration transparente avec les pipelines de données d’entreprise, les API et les cadres d’agent. L’objectif est de donner aux clients l’agilité du cloud avec le contrôle d’un environnement local.
Quels conseils avez-vous pour les chercheurs en IA et les équipes d’infrastructure qui visent à évoluer efficacement dans l’environnement actuel contraint par le calcul ?
Les chercheurs en IA et les sociétés devraient essayer de minimiser le temps qu’ils passent à résoudre les défis d’infrastructure, car il s’agit d’une tâche non différenciée, et profiter de primitives de niveau supérieur telles que les Kubernetes gérés et Slurm. Choisissez des partenaires qui offrent des tarifs transparents, un support opérationnel d’expert et une expertise d’ingénierie exceptionnelle pour aider à résoudre les problèmes. Ces facteurs accéléreront à la fois vos expériences et votre mise à l’échelle.
Où voyez-vous Voltage Park dans trois ans – plus bas dans la pile vers un service d’IA complet, ou en branchant dans de nouveaux domaines comme le calcul de bord ?
Trois ans dans le paysage de l’IA, c’est une époque. Nous sommes une entreprise axée sur le client et dans trois ans, comme maintenant, nous nous concentrerons sur les points de douleur réels des clients, que ce soit dans le contexte de la construction de produits d’IA ou de leur consommation. Je m’attends à ce que nous ayons beaucoup plus de sophistication dans la largeur et la profondeur de notre pile logicielle, et un historique d’aide aux principales sociétés du monde à accélérer l’adoption de l’IA à grande échelle.
Merci pour cette grande interview, les lecteurs qui souhaitent en savoir plus peuvent visiter Voltage Park.












