Entretiens
Alex Yeh, Fondateur & PDG de GMI Cloud – Série d’entretiens

Alex Yeh est le fondateur et le PDG de GMI Cloud, une entreprise de infrastructure numérique à capitaux risqués dont la mission est de permettre à quiconque de déployer l’IA sans effort et de simplifier la façon dont les entreprises conçoivent, déployent et mettent à l’échelle l’IA grâce à des solutions matérielles et logicielles intégrées.
Qu’est-ce qui vous a inspiré à créer GMI Cloud, et comment votre parcours a-t-il influencé votre approche pour construire l’entreprise ?
GMI Cloud a été fondée en 2021, se concentrant principalement pendant ses deux premières années sur la construction et l’exploitation de centres de données pour fournir des nœuds de calcul Bitcoin. Au cours de cette période, nous avons établi trois centres de données en Arkansas et au Texas.
En juin de l’année dernière, nous avons remarqué une forte demande de la part des investisseurs et des clients pour la puissance de calcul des GPU. Dans le mois qui a suivi, il a décidé de pivoter vers l’infrastructure cloud d’IA. Le développement rapide de l’IA et la vague de nouvelles opportunités commerciales qu’elle apporte sont soit impossibles à prévoir, soit difficiles à décrire. En fournissant les infrastructures essentielles, GMI Cloud vise à rester étroitement aligné sur les opportunités passionnantes et souvent inimaginables de l’IA.
Avant GMI Cloud, j’étais partenaire dans une société de capital-risque, engageant régulièrement avec des industries émergentes. Je vois l’intelligence artificielle comme la dernière “ruée vers l’or” du 21e siècle, avec les GPU et les serveurs d’IA servant de “pioches” pour les “prospecteurs” modernes, stimulant une croissance rapide pour les sociétés cloud spécialisées dans la location de puissance de calcul des GPU.
Pouvez-vous nous parler de la mission de GMI Cloud pour simplifier l’infrastructure d’IA et pourquoi cette focalisation est si cruciale sur le marché d’aujourd’hui ?
La simplification de l’infrastructure d’IA est essentielle en raison de la complexité et de la fragmentation actuelles de la pile d’IA, ce qui peut limiter l’accessibilité et l’efficacité pour les entreprises qui visent à exploiter le potentiel de l’IA. Les configurations d’IA d’aujourd’hui impliquent souvent plusieurs couches disjointes – de la prétraitement des données à la formation de modèles, en passant par le déploiement et la mise à l’échelle – qui nécessitent beaucoup de temps, des compétences spécialisées et des ressources pour gérer efficacement. De nombreuses sociétés passent des semaines, voire des mois, à identifier les couches les plus adaptées de l’infrastructure d’IA, un processus qui peut s’étendre sur des semaines ou même des mois, impactant l’expérience utilisateur et la productivité.
- Accélération du déploiement : Une infrastructure simplifiée permet un développement et un déploiement plus rapides des solutions d’IA, aidant les sociétés à rester compétitives et adaptables aux besoins changeants du marché.
- Réduction des coûts et des ressources : En minimisant le besoin de matériel spécialisé et d’intégrations personnalisées, une pile d’IA rationalisée peut réduire considérablement les coûts, rendant l’IA plus accessible, en particulier pour les petites entreprises.
- Activation de la scalabilité : Une infrastructure bien intégrée permet une gestion efficace des ressources, essentielle pour mettre à l’échelle les applications à mesure que la demande augmente, garantissant que les solutions d’IA restent robustes et réactives à plus grande échelle.
- Amélioration de l’accessibilité : Une infrastructure simplifiée rend plus facile pour un large éventail d’organisations d’adopter l’IA sans nécessiter une expertise technique approfondie. Cette démocratisation de l’IA favorise l’innovation et crée de la valeur dans plus d’industries.
- Soutien à l’innovation rapide : À mesure que la technologie d’IA évolue, une infrastructure moins complexe facilite l’intégration de nouveaux outils, modèles et méthodes, permettant aux organisations de rester agiles et d’innover rapidement.
La mission de GMI Cloud pour simplifier l’infrastructure d’IA est essentielle pour aider les entreprises et les startups à réaliser pleinement les avantages de l’IA, en la rendant accessible, rentable et scalable pour les organisations de toutes tailles.
Vous avez récemment obtenu 82 millions de dollars en financement de série A. Comment ce nouveau capital sera-t-il utilisé, et quels sont vos objectifs d’expansion immédiats ?
GMI Cloud utilisera le financement pour ouvrir un nouveau centre de données dans le Colorado et investira principalement dans des GPU H200 pour construire un autre grand cluster de GPU. GMI Cloud développe également activement sa propre plateforme de gestion de ressources cloud-native, Cluster Engine, qui est intégrée de manière transparente à notre matériel avancé. Cette plateforme offre des capacités inégalées en termes de virtualisation, de conteneurisation et d’orchestration.
GMI Cloud offre un accès aux GPU à 2 fois la vitesse par rapport à la concurrence. Quelles approches ou technologies uniques rendent cela possible ?
Un aspect clé de l’approche unique de GMI Cloud est l’utilisation de NCP de NVIDIA, qui offre à GMI Cloud un accès prioritaire aux GPU et à d’autres ressources de pointe. Cette approvisionnement direct auprès des fabricants, combiné à des options de financement solides, garantit une efficacité coût-efficacité et une chaîne d’approvisionnement hautement sécurisée.
Avec les GPU NVIDIA H100 disponibles dans cinq emplacements mondiaux, comment cette infrastructure prend-elle en charge les besoins de vos clients en IA aux États-Unis et en Asie ?
GMI Cloud a établi une présence mondiale stratégique, servant de multiples pays et régions, y compris Taïwan, les États-Unis et la Thaïlande, avec un réseau de centres de données Internet (IDC) à travers le monde. Actuellement, GMI Cloud exploite des milliers de cartes de GPU basées sur NVIDIA Hopper, et elle est sur une trajectoire d’expansion rapide, avec des plans pour multiplier ses ressources au cours des six prochains mois. Cette répartition géographique permet à GMI Cloud de fournir un service fluide et à faible latence aux clients de différentes régions, en optimisant l’efficacité du transfert de données et en offrant un soutien d’infrastructure robuste aux entreprises qui élargissent leurs opérations d’IA à travers le monde.
De plus, les capacités mondiales de GMI Cloud lui permettent de comprendre et de répondre aux demandes de marché et aux exigences réglementaires diverses à travers les régions, offrant des solutions personnalisées adaptées aux besoins uniques de chaque localité. Avec une piscine croissante de ressources de calcul, GMI Cloud répond à la demande croissante de puissance de calcul d’IA, offrant aux clients une capacité de calcul ample pour accélérer la formation de modèles, améliorer la précision et améliorer les performances du modèle pour une large gamme de projets d’IA.
En tant que leader dans les services cloud natifs d’IA, quels sont les tendances ou les besoins des clients sur lesquels vous vous concentrez pour faire progresser la technologie de GMI ?
De GPU à applications, GMI Cloud impulse la transformation intelligente pour les clients, en répondant aux besoins du développement de la technologie d’IA.
Architecture matérielle :
- Architecture de cluster physique : Des instances comme les 1250 H100 incluent des racks de GPU, des racks de feuilles et des racks de colonne vertébrale, avec des configurations optimisées de serveurs et d’équipements réseau qui offrent une puissance de calcul de haute performance.
- Structure de la topologie du réseau : Conçue avec un tissu IB efficace et un tissu Ethernet, garantissant une transmission de données fluide et une communication.
Logiciels et services :
- Cluster Engine : Utilisation d’un moteur développé en interne pour gérer des ressources telles que le métal nu, Kubernetes/conteneurs et HPC Slurm, permettant une allocation optimale des ressources pour les utilisateurs et les administrateurs.
- Plateforme cloud propriétaire : Le CLUSTER ENGINE est un système de gestion cloud propriétaire qui optimise la planification des ressources, offrant une solution de gestion de cluster flexible et efficace.
Ajouter la feuille de route du moteur d’inférence :
- Calcul continu, garantir un SLA élevé.
- Partage du temps pour une utilisation fractionnaire.
- Instance de spot
Consulting et services personnalisés : Offre des services de consulting, de rapports de données et des services personnalisés tels que la conteneurisation, les recommandations de formation de modèles et les plateformes MLOps sur mesure.
Fonctions de sécurité et de surveillance robustes : Inclut le contrôle d’accès basé sur les rôles (RBAC), la gestion des groupes d’utilisateurs, la surveillance en temps réel, le suivi historique et les notifications d’alerte.
À votre avis, quels sont les plus grands défis et opportunités pour l’infrastructure d’IA au cours des prochaines années ?
Défis :
- Scalabilité et coûts : À mesure que les modèles deviennent plus complexes, maintenir la scalabilité et l’abordabilité devient un défi, en particulier pour les petites entreprises.
- Énergie et durabilité : La consommation d’énergie élevée exige des solutions plus écologiques à mesure que l’adoption de l’IA augmente.
- Sécurité et confidentialité : La protection des données dans les infrastructures partagées nécessite une évolution de la sécurité et de la conformité réglementaire.
- Interopérabilité : Les outils fragmentés de la pile d’IA compliquent le déploiement et l’intégration sans heurts. Nous pouvons maintenant réduire le temps de développement de 2 fois et réduire le nombre de personnes impliquées dans un projet d’IA de 3 fois.
Opportunités :
- Croissance de l’IA de bord : Le traitement de l’IA plus près des sources de données offre une réduction de la latence et une conservation de la bande passante.
- MLOps automatisés : Les opérations rationalisées réduisent la complexité du déploiement, permettant aux sociétés de se concentrer sur les applications.
- Matériel économe en énergie : Les innovations peuvent améliorer l’accessibilité et réduire l’impact environnemental.
- Nuage hybride : L’infrastructure qui fonctionne sur les environnements cloud et sur site est bien adaptée à la flexibilité des entreprises.
- Gestion d’IA alimentée par l’IA : L’utilisation de l’IA pour optimiser de manière autonome l’infrastructure réduit les temps d’arrêt et améliore l’efficacité.
Pouvez-vous partager vos insights sur votre vision à long terme pour GMI Cloud ? Quel rôle voyez-vous jouer dans l’évolution de l’IA et de l’AGI ?
Je veux construire l’IA de l’Internet. Je veux construire l’infrastructure qui alimente l’avenir à travers le monde.
Pour créer une plateforme accessible, similaire à Squarespace ou Wix, mais pour l’IA. N’importe qui devrait être capable de construire son application d’IA.
Dans les années à venir, l’IA connaîtra une croissance considérable, en particulier avec les cas d’utilisation de l’IA générative, à mesure que davantage d’industries intègrent ces technologies pour améliorer la créativité, automatiser les processus et optimiser la prise de décision. L’inférence jouera un rôle central dans cet avenir, permettant des applications d’IA en temps réel qui peuvent gérer des tâches complexes de manière efficace et à grande échelle. Les cas d’utilisation B2B devraient dominer, les entreprises se concentrant de plus en plus sur l’utilisation de l’IA pour améliorer la productivité, rationaliser les opérations et créer de la valeur. La vision à long terme de GMI Cloud s’aligne sur cette tendance, visant à fournir une infrastructure avancée et fiable qui aide les entreprises à maximiser la productivité et l’impact de l’IA à travers leurs organisations.
À mesure que vous élargissez les opérations avec le nouveau centre de données dans le Colorado, quels sont les objectifs stratégiques ou les jalons que vous visez à atteindre au cours de l’année prochaine ?
À mesure que nous élargissons les opérations avec le nouveau centre de données dans le Colorado, nous nous concentrons sur plusieurs objectifs stratégiques et jalons au cours de l’année prochaine. Les États-Unis constituent le plus grand marché pour l’IA et le calcul d’IA, il est donc essentiel pour nous d’établir une présence solide dans cette région. L’emplacement stratégique du Colorado, combiné à son écosystème technologique robuste et à son environnement commercial favorable, nous permet de mieux servir une clientèle croissante et d’améliorer nos offres de services.
Quels conseils donneriez-vous aux sociétés ou aux startups qui cherchent à adopter une infrastructure d’IA avancée ?
Pour les startups axées sur l’innovation alimentée par l’IA, la priorité devrait être de construire et d’affiner leurs produits, et non de passer un temps précieux à gérer l’infrastructure. Partenarez avec des fournisseurs de technologie de confiance qui offrent des solutions de GPU fiables et scalables, en évitant les fournisseurs qui font des raccourcis avec des alternatives sous étiquette blanche. La fiabilité et le déploiement rapide sont critiques ; dans les premiers stades, la vitesse est souvent la seule barrière concurrentielle qu’une startup a contre les acteurs établis. Choisissez des options cloud basées sur la flexibilité qui soutiennent la croissance, et concentrez-vous sur la sécurité et la conformité sans sacrifier l’agilité. En faisant cela, les startups peuvent intégrer en douceur, itérer rapidement et canaliser leurs ressources vers ce qui compte vraiment – livrer un produit exceptionnel sur le marché.
Je vous remercie pour cette grande interview, les lecteurs qui souhaitent en savoir plus devraient visiter GMI Cloud,












