存根 AWS 和 NVIDIA 宣布建立新的战略合作伙伴关系 - Unite.AI
关注我们.

最新公告

AWS 和 NVIDIA 宣布新的战略合作伙伴关系

发布时间

 on

在 AWS re:Invent 大会上发布的一项重要声明中,Amazon Web Services (AWS) 和 NVIDIA 公布了战略合作的重大扩展,在生成式 AI 领域树立了新基准。 此次合作代表了该领域的关键时刻,将 AWS 强大的云基础设施与 NVIDIA 的尖端 AI 技术相结合。 随着 AWS 成为第一家集成 NVIDIA 先进的 GH200 Grace Hopper 超级芯片的云提供商,该联盟有望释放前所未有的 AI 创新能力。

此次合作的核心是共同的愿景,将生成式人工智能推向新的高度。 通过利用 NVIDIA 的多节点系统、下一代 GPU、CPU 和复杂的 AI 软件,以及 AWS 的 Nitro 系统高级虚拟化、Elastic Fabric Adapter (EFA) 互连和 UltraCluster 可扩展性,这种合作关系将彻底改变生成式 AI 应用程序的方式开发、培训和部署。

这种合作的影响超出了单纯的技术集成。 它标志着两个行业巨头共同致力于推进生成式人工智能,为客户和开发人员提供最先进的资源和基础设施。

AWS 上的 NVIDIA GH200 Grace Hopper 超级芯片

AWS 和 NVIDIA 之间的合作实现了一个重要的技术里程碑:在 AWS 平台上推出 NVIDIA 的 GH200 Grace Hopper 超级芯片。 此举使 AWS 成为提供这些先进超级芯片的先驱云提供商,标志着云计算和人工智能技术迈出了重要一步。

NVIDIA GH200 Grace Hopper 超级芯片在计算能力和效率方面实现了飞跃。它们采用新的多节点 NVLink 技术设计,使其能够跨多个节点无缝连接和操作。这种能力改变了游戏规则,特别是在大规模人工智能和机器学习任务的背景下。它允许 GH200 NVL32 多节点平台扩展到数千个超级芯片,提供超级计算机级的性能。这种可扩展性对于复杂的人工智能任务至关重要,包括训练复杂的生成式人工智能模型以及以前所未有的速度和效率处理大量数据。

在 AWS 上托管 NVIDIA DGX 云

AWS-NVIDIA 合作伙伴关系的另一个重要方面是集成 NVIDIA DGX 云 在 AWS 上。 这种人工智能训练即服务代表了人工智能模型训练领域的巨大进步。 该服务建立在 GH200 NVL32 的优势之上,专为生成式 AI 和大型语言模型的加速训练而定制。

AWS 上的 DGX 云带来了多项优势。 它能够运行超过 1 万亿个参数的广泛语言模型,这是以前难以实现的壮举。 这种能力对于开发更复杂、更准确和上下文感知的人工智能模型至关重要。 此外,与AWS的集成可以提供更加无缝和可扩展的AI培训体验,使其可供更广泛的用户和行业使用。

Ceiba 项目:构建超级计算机

也许 AWS-NVIDIA 合作中最雄心勃勃的方面是 Project Ceiba。 该项目旨在打造世界上最快的 GPU 驱动的 AI 超级计算机,配备 16,384 颗 NVIDIA GH200 超级芯片。 该超级计算机的预计处理能力高达 65 exaflops,使其成为人工智能领域的庞然大物。

木棉计划的目标是多方面的。 预计它将对各个人工智能领域产生重大影响,包括图形和模拟、数字生物学、机器人、自动驾驶汽车和气候预测。 超级计算机将使研究人员和开发人员能够突破人工智能的极限,以前所未有的速度加速这些领域的进步。 Ceiba 项目不仅代表了一个技术奇迹,而且是未来人工智能创新的催化剂,有可能带来突破,重塑我们对人工智能的理解和应用。

人工智能创新新时代

Amazon Web Services (AWS) 和 NVIDIA 之间的扩大合作标志着 AI 创新新时代的开始。 通过在 AWS 上推出 NVIDIA GH200 Grace Hopper 超级芯片、托管 NVIDIA DGX 云以及开展雄心勃勃的 Project Ceiba,这两家科技巨头不仅突破了生成式 AI 的界限,而且还为云计算和 AI 基础设施制定了新标准。

这种伙伴关系不仅仅是技术联盟; 它代表了对人工智能未来的承诺。 NVIDIA 先进的 AI 技术与 AWS 强大的云基础设施的集成有望加速各行业的 AI 开发、培训和实施。 从增强大型语言模型到推进数字生物学和气候科学等领域的研究,这种合作的潜在应用和影响是巨大的和变革性的。

Alex McFarland 是一位人工智能记者和作家,致力于探索人工智能的最新发展。他与全球众多人工智能初创公司和出版物合作。