融资
GMI Cloud 获得 8200 万美元 A 轮融资,推动全球 AI 基础设施扩张和高级 GPU 解决方案
为应对对先进 AI 基础设施日益增长的需求,位于硅谷的 GPU 云服务提供商 GMI Cloud 已获得 8200 万美元的 A 轮融资。该轮融资由 Headline Asia 领投,Banpu Next 和 Wistron Corporation 参投,这使得 GMI 的总资本超过 9300 万美元。这些资金将使 GMI Cloud 能够在科罗拉多州开设一个新的数据中心,增强其在北美的服务能力,并巩固其作为领先的 AI 本土云服务提供商的地位。
GMI Cloud 致力于使先进的 AI 基础设施民主化,其使命是简化全球的 AI 部署。该公司提供一个垂直整合的平台,结合顶级硬件和强大的软件解决方案,确保企业能够高效、轻松地构建、部署和扩展 AI。
高性能、AI 就绪云平台
GMI Cloud 的平台为 AI 项目提供了一个完整的生态系统,集成了先进的 GPU 基础设施、专有的资源编排系统和模型管理及部署工具。这种综合解决方案消除了许多传统基础设施挑战:
- GPU 实例:GMI 提供快速访问 NVIDIA GPU,允许用户瞬间部署 GPU 资源。选项包括按需或私有云实例,适用于从小型项目到企业级 ML 工作负载的一切。
- 集群引擎:由 Kubernetes 提供支持,该专有软件实现了 GPU 资源的无缝管理和优化。它提供了多集群功能,实现了灵活的扩展,确保项目可以适应不断变化的 AI 需求。
- 应用程序平台:为 AI 开发而设计,该平台提供了一个可定制的环境,集成了 API、SDK 和 Jupyter 笔记本,提供了高性能的模型训练、推理和定制支持。
通过科罗拉多数据中心扩大全球影响力
GMI Cloud 的科罗拉多数据中心代表着其扩张的关键一步,提供低延迟、高可用性的基础设施,以满足北美客户日益增长的需求。这个新中心补充了 GMI 现有的全球数据中心,这些数据中心已经在台湾和其他关键地区建立了强大的存在感,允许在各个市场上快速部署。
以 NVIDIA 技术为 AI 提供动力
GMI Cloud 作为 NVIDIA 合作伙伴网络 的成员,集成了 NVIDIA 的尖端 GPU,包括 NVIDIA H100。这种合作确保客户可以访问专为处理复杂 AI 和 ML 工作负载而设计的强大的计算能力,最大限度地提高性能和高需求应用程序的安全性。
NVIDIA H100 Tensor Core GPU 建立在 NVIDIA Hopper 架构之上,提供顶级性能、可扩展性和安全性,适用于多种工作负载。它针对 AI 应用程序进行了优化,能够将大型语言模型(LLM)加速多达 30 倍。另外,H100 具有专用的 Transformer 引擎,专门设计用于处理 trillion 参数模型,使其非常适合对话式 AI 和其他密集的机器学习任务。
为 AGI 未来而构建
GMI Cloud 着眼于未来,正在作为人工通用智能(AGI)的基础平台而建立。通过提供对先进 GPU 的早期访问和无缝的编排工具,GMI Cloud 能够让各大小企业快速部署可扩展的 AI 解决方案。这一对可访问性和创新性的关注是 GMI 使命的核心,即支持快速演变的 AI 风景,确保全球企业能够高效地采用和扩展 AI 技术。
由具有深厚 AI、机器学习和云基础设施专业知识的团队支持,GMI Cloud 为希望利用 AI 实现转型增长的公司创造了一个可访问的途径。凭借其强大的基础设施、战略伙伴关系以及推动 AI 创新的承诺,GMI Cloud 已经为在全球范围内塑造 AI 基础设施的未来做好了准备。












