公告
AWS 和 NVIDIA 宣布新战略合作伙伴关系

在 AWS re:Invent 的一个值得注意的公告中,Amazon Web Services (AWS) 和 NVIDIA 展示了他们战略合作的重大扩展,设定了生成性 AI 领域的新基准。这一合作伙伴关系代表了该领域的一个关键时刻,结合了 AWS 的强大的云基础设施和 NVIDIA 的尖端 AI 技术。随着 AWS 成为第一个集成 NVIDIA 先进 GH200 格雷斯·霍珀超芯片的云提供商,这一联盟承诺解锁 AI 创新中的前所未有的能力。
在此合作的核心是推动生成性 AI 到新高度的共同愿景。通过利用 NVIDIA 的多节点系统、下一代 GPU、CPU 和先进的 AI 软件,以及 AWS 的 Nitro System 高级虚拟化、Elastic Fabric Adapter (EFA) 交互和 UltraCluster 可扩展性,这一合作伙伴关系有望彻底改变生成性 AI 应用的开发、训练和部署方式。
此合作的影响范围超出了简单的技术集成。它标志着两个行业巨头共同致力于推进生成性 AI,向客户和开发人员提供最先进的资源和基础设施。
NVIDIA GH200 格雷斯·霍珀超芯片在 AWS 上
AWS 和 NVIDIA 之间的合作带来了一个重大的技术里程碑:NVIDIA 的 GH200 格雷斯·霍珀超芯片在 AWS 平台上的推出。这一举动使得 AWS 成为第一个提供这些先进超芯片的云提供商,标志着云计算和 AI 技术的一个重要步骤。
NVIDIA GH200 格雷斯·霍珀超芯片在计算能力和效率方面取得了飞跃。它们采用了新的多节点 NVLink 技术,能够无缝地连接和跨多个节点运行。这种能力在大规模 AI 和机器学习任务的背景下尤其重要。它允许 GH200 NVL32 多节点平台扩展到数千个超芯片,提供超级计算机级别的性能。这种可扩展性对于复杂的 AI 任务(包括训练复杂的生成性 AI 模型和以前所未有的速度和效率处理大量数据)至关重要。
在 AWS 上托管 NVIDIA DGX Cloud
AWS-NVIDIA 合作的另一个重要方面是将 NVIDIA DGX Cloud 集成到 AWS 上。这种 AI 训练即服务代表了 AI 模型训练领域的重大进步。该服务建立在 GH200 NVL32 的优势上,特别针对生成性 AI 和大型语言模型的加速训练进行了优化。
在 AWS 上的 DGX Cloud 提供了多种优势。它可以运行超过 1 万亿参数的广泛语言模型,这以前很难实现。这种能力对于开发更复杂、更准确和更上下文感知的 AI 模型至关重要。另外,集成到 AWS 允许进行更无缝和可扩展的 AI 训练体验,使其更容易被更广泛的用户和行业所接受。
项目 Ceiba:构建超级计算机
AWS-NVIDIA 合作中最雄心勃勃的方面可能是项目 Ceiba。这一项目旨在创建世界上最快的 GPU 驱动的 AI 超级计算机,采用 16,384 个 NVIDIA GH200 超芯片。超级计算机的预计处理能力高达 65 艾弗洛普,令其在 AI 世界中脱颖而出。
项目 Ceiba 的目标是多方面的。它预计将对各种 AI 领域(包括图形和模拟、数字生物学、机器人、自动驾驶汽车和气候预测)产生重大影响。超级计算机将使研究人员和开发人员能够突破 AI 的可能范围,推动这些领域的进步速度前所未有。项目 Ceiba 不仅代表着技术奇迹,也是未来 AI 创新的催化剂,可能会带来突破性的发现,从而重塑我们对人工智能的理解和应用。
AI 创新新时代
Amazon Web Services (AWS) 和 NVIDIA 之间的扩大合作标志着 AI 创新的新时代的开始。通过在 AWS 上引入 NVIDIA GH200 格雷斯·霍珀超芯片、托管 NVIDIA DGX Cloud 以及开展雄心勃勃的项目 Ceiba,这两家科技巨头不仅推动了生成性 AI 的边界,还为云计算和 AI 基础设施设定了新的标准。
这一合作伙伴关系不仅仅是一种技术联盟;它代表了对 AI 未来的承诺。NVIDIA 先进 AI 技术与 AWS 强大的云基础设施的集成有望加速 AI 在各个行业的开发、训练和实施。从增强大型语言模型到推进数字生物学和气候科学等领域的研究,这一合作的潜在应用和影响是巨大而变革性的。
