Connect with us

融资

GMI Cloud 获得 8200 万美元 A 轮融资,推动全球 AI 基础设施扩张和高级 GPU 解决方案

mm

为应对对先进 AI 基础设施日益增长的需求,位于硅谷的 GPU 云服务提供商 GMI Cloud 已获得 8200 万美元的 A 轮融资。该轮融资由 Headline Asia 领投,Banpu NextWistron Corporation 参投,这使得 GMI 的总资本超过 9300 万美元。这些资金将使 GMI Cloud 能够在科罗拉多州开设一个新的数据中心,增强其在北美的服务能力,并巩固其作为领先的 AI 本土云服务提供商的地位。

GMI Cloud 致力于使先进的 AI 基础设施民主化,其使命是简化全球的 AI 部署。该公司提供一个垂直整合的平台,结合顶级硬件和强大的软件解决方案,确保企业能够高效、轻松地构建、部署和扩展 AI。

高性能、AI 就绪云平台

GMI Cloud 的平台为 AI 项目提供了一个完整的生态系统,集成了先进的 GPU 基础设施、专有的资源编排系统和模型管理及部署工具。这种综合解决方案消除了许多传统基础设施挑战:

  • GPU 实例:GMI 提供快速访问 NVIDIA GPU,允许用户瞬间部署 GPU 资源。选项包括按需或私有云实例,适用于从小型项目到企业级 ML 工作负载的一切。
  • 集群引擎:由 Kubernetes 提供支持,该专有软件实现了 GPU 资源的无缝管理和优化。它提供了多集群功能,实现了灵活的扩展,确保项目可以适应不断变化的 AI 需求。
  • 应用程序平台:为 AI 开发而设计,该平台提供了一个可定制的环境,集成了 API、SDK 和 Jupyter 笔记本,提供了高性能的模型训练、推理和定制支持。

通过科罗拉多数据中心扩大全球影响力

GMI Cloud 的科罗拉多数据中心代表着其扩张的关键一步,提供低延迟、高可用性的基础设施,以满足北美客户日益增长的需求。这个新中心补充了 GMI 现有的全球数据中心,这些数据中心已经在台湾和其他关键地区建立了强大的存在感,允许在各个市场上快速部署。

以 NVIDIA 技术为 AI 提供动力

GMI Cloud 作为 NVIDIA 合作伙伴网络 的成员,集成了 NVIDIA 的尖端 GPU,包括 NVIDIA H100。这种合作确保客户可以访问专为处理复杂 AI 和 ML 工作负载而设计的强大的计算能力,最大限度地提高性能和高需求应用程序的安全性。

NVIDIA H100 Tensor Core GPU 建立在 NVIDIA Hopper 架构之上,提供顶级性能、可扩展性和安全性,适用于多种工作负载。它针对 AI 应用程序进行了优化,能够将大型语言模型(LLM)加速多达 30 倍。另外,H100 具有专用的 Transformer 引擎,专门设计用于处理 trillion 参数模型,使其非常适合对话式 AI 和其他密集的机器学习任务。

为 AGI 未来而构建

GMI Cloud 着眼于未来,正在作为人工通用智能(AGI)的基础平台而建立。通过提供对先进 GPU 的早期访问和无缝的编排工具,GMI Cloud 能够让各大小企业快速部署可扩展的 AI 解决方案。这一对可访问性和创新性的关注是 GMI 使命的核心,即支持快速演变的 AI 风景,确保全球企业能够高效地采用和扩展 AI 技术。

由具有深厚 AI、机器学习和云基础设施专业知识的团队支持,GMI Cloud 为希望利用 AI 实现转型增长的公司创造了一个可访问的途径。凭借其强大的基础设施、战略伙伴关系以及推动 AI 创新的承诺,GMI Cloud 已经为在全球范围内塑造 AI 基础设施的未来做好了准备。

安托万是一位具有远见的领导者和Unite.AI的创始合伙人,他被对塑造和推广AI和机器人人的未来充满不动摇的热情所驱动。作为一位连续创业者,他相信AI将对社会产生与电力一样的颠覆性影响,他经常被听到对颠覆性技术和AGI的潜力大加赞赏。

作为一位未来学家,他致力于探索这些创新将如何塑造我们的世界。另外,他也是Securities.io的创始人,这是一个专注于投资于重新定义未来和重塑整个行业的尖端技术的平台。