公告
解读 Nvidia 在台北电脑展上的公告

在近期举行的台北国际电脑展 (Computex) 上,NVIDIA 首席执行官黄仁勋在一场激动人心的主题演讲中正式发布了 Grace Hopper 平台。该平台将高效节能的 Nvidia Grace CPU 与高性能的 Nvidia H100 Tensor Core GPU 进行创新组合,标志着企业级 AI 功能的新纪元。
Grace Hopper 和 DGX GH200 揭幕
这个全面的人工智能模块并不是黄仁勋发布的唯一引人注目的公告。 强大的AI超级计算机DGX GH200也成为众人瞩目的焦点。 这款庞然大物拥有非凡的内存能力,可在一个典型数据中心大小的 GPU 内容纳多达 256 个 Nvidia Grace Hopper 超级芯片。
DGX GH200 确实是一个强大的引擎,可提供 144 亿亿次浮点运算性能,并拥有令人印象深刻的 500 TB 共享内存。 这远远超过其前身模型 200 倍,为开发人员构建下一代 AI 聊天机器人的复杂语言模型、为推荐系统设计先进的算法以及构建复杂的图神经网络打开了大门,这对于欺诈检测和数据分析至关重要任务。 正如 Huang 所概述的那样,Google Cloud、Meta 和 Microsoft 等技术领导者已经开始利用 DGX GHXNUMX 的功能来处理其生成式 AI 工作负载。
黄仁勋强调:“DGX GH200 AI 超级计算机采用了 Nvidia 最先进的加速计算和网络技术,不断突破 AI 的界限。”
适用于游戏的 Nvidia Avatar 云引擎 (ACE)
在一项让游戏开发者成为关注焦点的重大公告中,黄仁勋披露了适用于游戏的 Nvidia Avatar Cloud Engine (ACE)。 这项代工服务使开发人员能够创建和部署用于语音、对话和动画的定制 AI 模型。 ACE 工具使非玩家角色能够参与对话,从而以不断发展的逼真个性来响应查询。
这个强大的工具包包含关键的 AI 基础模型,例如用于语音检测和转录的 Nvidia Riva、用于创建自定义响应的 Nvidia NeMo 以及用于为这些响应设置动画的 Nvidia Omniverse Audio2Face。
Nvidia 与微软的合作努力
主题演讲还重点介绍了英伟达与微软的新合作伙伴关系,旨在推动 Windows PC 上生成式人工智能的蓬勃发展。此次合作将开发更完善的工具、框架和驱动程序,以简化 PC 上的人工智能开发和部署流程。
此次合作将扩大和扩大超过 100 亿台配备 Tensor Core RTX GPU 的 PC 的安装基础。 这一增强功能有望增强 400 多种 AI 加速的 Windows 应用程序和游戏的性能。
生成式人工智能和数字广告:
黄表示,生成式人工智能的潜力还延伸到了数字广告领域。 Nvidia 与营销服务组织 WPP 联手,在 Omniverse Cloud 平台上开发创新内容引擎。
该引擎将创意团队与 Adobe Substance 3D 等 3D 设计工具连接起来,在 Nvidia Omniverse 中创建客户产品的数字孪生。通过使用由 Nvidia Picasso 提供支持并基于可靠来源数据进行训练的 GenAI 工具,这些团队现在可以快速生成虚拟场景。这项革命性的功能使 WPP 的客户能够制作种类繁多的广告、视频和 3D 体验,这些体验针对全球市场进行定制,并可在任何网络设备上访问。
制造业的数字化革命
制造业一直是英伟达的重点领域之一,这是一个规模高达 46 万亿美元的庞大产业,由约 10 万家工厂组成。黄仁勋展示了富士康工业互联网、宜鼎国际、和硕、广达和纬创等电子制造商如何利用英伟达技术。通过采用数字化工作流程,这些公司正朝着全数字化智能工厂的梦想迈进。
“世界上最大的行业都在创造实体产品。通过首先进行数字化制造,我们可以节省数十亿美元。”黄仁勋说道。
Omniverse 与生成式 AI API 的集成,助力这些公司在设计工具和制造工具之间架起桥梁,构建工厂的数字复制品——数字孪生。此外,他们还利用 Nvidia Isaac Sim 来模拟和测试机器人,并利用视觉 AI 框架 Nvidia Metropolis 进行自动光学检测。Nvidia 的最新产品 Nvidia Metropolis for Factoryies 为创建定制质量控制系统铺平了道路,为制造商带来了竞争优势,并赋能他们开发尖端的 AI 应用。
Nvidia Helios 的构建和 Nvidia MG 的介绍
此外,英伟达还透露了正在进行中的令人惊叹的人工智能超级计算机英伟达赫利奥斯 (Nvidia Helios)。 Helios 预计将于今年晚些时候投入运营,将利用四个互连的 DGX GH200 系统和 Nvidia Quantum-2 InfiniBand 网络,提供高达 400Gb/s 的带宽。 这将极大地提高训练大规模人工智能模型的数据吞吐量。
为了补充这些突破性的发展,Nvidia 推出了 Nvidia MGX,这是一种模块化参考架构,允许系统制造商经济高效地创建针对 AI、HPC 和 Nvidia Omniverse 应用程序量身定制的各种服务器配置。
借助 MGX 架构,制造商可以使用模块化组件开发标准化 CPU 和加速服务器。 这些配置支持一系列 GPU、CPU、数据处理单元 (DPU) 和网络适配器,包括 x86 和 Arm 处理器。 MGX 配置可安装在风冷和液冷机箱中。 率先采用 MGX 设计的是 QCT 和 Supermicro,其他重要公司如 ASRock Rack、ASUS、GIGABYTE 和 Pegatron 预计将紧随其后。
彻底改变 5G 基础设施和云网络
展望未来,黄仁勋宣布了一系列旨在革新 5G 基础设施和云网络的合作伙伴关系。其中一项值得关注的合作是与一家日本电信巨头的合作,该合作将在模块化 MGX 系统中利用 Nvidia 的 Grace Hopper 和 BlueField-3 DPU 来开发分布式数据中心网络。
通过集成 Nvidia 频谱以太网交换机,数据中心将促进 5G 协议所需的精确定时,从而提高频谱效率并降低能耗。该平台具有广泛的应用潜力,包括自动驾驶、人工智能工厂、增强现实和虚拟现实、计算机视觉和数字孪生。
此外,黄仁勋还推出了 Nvidia Spectrum-X,这是一个旨在提高基于以太网的人工智能云的性能和效率的网络平台。 通过将 Spectrum-4 以太网交换机与 BlueField-3 DPU 和软件相结合,Spectrum-X 将 AI 性能和能效提高了 1.7 倍。 Dell Technologies、Lenovo 和 Supermicro 等主要系统制造商已经提供 Nvidia Spectrum-X、Spectrum-4 交换机和 BlueField-3 DPU。
建立生成式人工智能超级计算中心
英伟达还在全球范围内建立生成式人工智能超级计算中心方面取得了巨大进展。 值得注意的是,该公司正在其以色列本地数据中心内构建最先进的超级计算机 Israel-1。 这台超级计算机旨在推动当地的研究和开发工作。
在台湾,目前正在开发两台新型超级计算机:台湾四号和台北一号。这些新增的超级计算机有望显著促进本地研发活动,并强化英伟达致力于推动全球人工智能和超级计算前沿技术发展的承诺。










