黄仁勋 Computex 演讲:将于三季度推出下一代 GB300 系统,个人 AI 计算机 DGX Spark 已全面投产

华尔街见闻
2025.05.19 09:05
portai
我是 PortAI,我可以总结文章信息。

黄仁勋表示,GB300 配备了升级版 Blackwell 芯片,其推理性能提升了 1.5 倍,HBM 内存容量增加了 1.5 倍,网络连接能力翻倍,增强了整体系统性能。

周一上午 11:00,英伟达创始人兼 CEO 黄仁勋出席台北国际电脑展(Computex 2025)开幕式并发表首场主题演讲,分享 AI 与加速运算技术的最新突破和进展。

会上,黄仁勋展示了 Blackwell GB200 超级芯片平台、NVLink Fusion、RTX PRO 等一系列新产品,并介绍了英伟达加速器芯片生态系统的最新进展。他表示,我们正处于一个 AI 工厂(AI Factories)时代的开端,并将英伟达定位为一个 AI 基础设施公司,不再只是芯片厂商。

他指出,AI 将成为新的基础设施,如同过去的电力和互联网一样,未来所有行业、所有国家都需要构建 AI 工厂来支持其智能化进程。

“十年后我们会说,我们需要无处不在的人工智能,就像互联网和电力一样。”

黄仁勋还特别提到,DeepSeek-R1 对人们理解 AI 和推理有巨大的影响,对行业和世界做出了巨大贡献。

本届 COMPUTEX 2025 以 “AI Next” 为主轴,聚焦 “智慧运算&机器人”“次世代科技” 以及 “未来移动” 三大主题。展会邀请了近 1400 家厂商、使用了约 4800 个摊位,展示面积高达 8 万平方公尺。

推出下一代 GB300 系统,推理性能提升 1.5 倍

黄仁勋表示,为了满足对更大计算能力的需求,推出了一种名为 “Grace Blackwell” 的新系统,它将普通计算机转变为强大的超级计算机。

我很高兴地宣布,我们的 Grace Blackwell 系统在经历了艰难的开发过程后,现在已全面投入生产。基于 HGX 主板的 Blackwell 系统自去年以来已全面投入生产,并于 2 月开始交付。Grace Blackwell 已被多家云服务提供商采纳,并在 Twitter 等平台上获得广泛认可。

黄仁勋还宣布,计划在本季度升级到 Grace Blackwell GB300 版本,将在今年三季度上市,GB300 系统配备了升级版 Blackwell 芯片,其推理性能提升了 1.5 倍,HBM 内存容量增加了 1.5 倍,网络连接能力翻倍,增强了整体系统性能。

个人 AI 计算机 DGX Spark 已全面投产,“几周内” 上市

黄仁勋表示,此前在 CES 上提及的 Project DIGITS 的个人 AI 计算机 DGX Spark 已全面投产,即将在未来几周上市。

DGX Spark 面向那些想要拥有自己的超级计算机的 AI 研究员们,各公司将自行定价。黄仁勋表示:“每个人都可以在圣诞节拥有一台。”

推出 NVLink Fusion,整合 CPU 和需求

黄仁勋宣布推出 NV Link Fusion,该技术将帮助构建人工智能基础设施,而不仅仅是单一、特定的超级芯片。

据介绍,它将能够整合所有公司的定制 CPU 和需求,“直接融入生态系统”,从而整合英伟达 GPU

简单来说,客户可以选择将自己的 CPU 与英伟达的 AI 芯片一起使用,或者将英伟达的 CPU 与其他供应商的 AI 加速器一起使用。

英伟达的 AI 算力每 10 年提升大约 100 万倍,和台积电合作开发新工艺

黄仁勋展示 GB200 Grace Blackwell 超级芯片。

黄仁勋表示,英伟达的 AI 算力每 10 年提升大约 100 万倍,公司已与台积电的合作促成了一种名为 COOS-L 的新工艺,使得大规模芯片的制造成为可能,同时公司开发了全球最快的交换机 NVLink,目前运行速度为 7.2TB。

RTX 5060 笔记本电脑 5 月上市

黄仁勋手持一块 RTX 5060 GPU,还有一台搭载 RTX 5060 的全新 MSI 笔记本电脑,表示后者会在五月上市,“肯定会发布”。

推出 Lepton 云平台,打造全球规模 AI 工厂

黄仁勋宣布推出 NVIDIA DGX Cloud Lepton。

据介绍,这是一款具备计算市场的 AI 平台,它将全球开发者与数万颗 GPU 连接起来,这些 GPU 可从全球云服务提供商网络获取,用于构建代理和物理 AI 应用程序。

黄仁勋还透露,英伟达正试图创建一个虚拟的全球 AI 计算市场。

发布 RTX PRO 服务器,运载 DeepSeek 时比 H100 强 4 倍

黄仁勋宣布推出 NVIDIA RTX PRO 服务器及 NVIDIA 企业 AI 工厂验证设计,旨在加速万亿美元企业 IT 数据中心基础设施向 AI 工厂的转型。

他表示,该系统在 DeepSeek 工作负载下的性能比英伟达之前的旗舰 H100 AI 系统高出四倍;在 Meta 的部分 Llama 模型作业下,RTX Pro 服务器的性能也比后者高出 1.7 倍。

黄仁勋表示,这款新产品目前已投入量产。

机器人将成为下个 “万亿美元产业”

黄仁勋表示,正在与汽车行业并行推进机器人系统,使用 Isaac Groot 平台,Isaac Groot 平台由一种名为 Jetson Thor 的新处理器驱动,专为机器人应用而设计,适用于从自主车辆到人机系统。英伟达的 Isaac 操作系统管理所有神经网络处理、传感器处理和数据管道,利用一支专业机器人团队开发的预训练模型来增强系统能力。

黄仁勋还表示,正在将其 AI 模型应用于自动驾驶汽车,与梅赛德斯在全球范围内推出一支车队,使用英伟达端到端自动驾驶技术,今年即可实现。

他认为,机器人将成为下一个价值数万亿美元的产业,但这需要很多努力。英伟达的机器人部门有能力做到这一点,而这仅仅是因为可扩展性。

推出物理 AI 引擎 Newton

黄仁勋表示,已与 DeepMind 和 Disney Research 研究合作开发了全球最先进的物理引擎 Newton,计划于七月开源。

据介绍,Newton 完全支持 GPU 加速,具有高度可微性和超实时操作能力,能够通过经验实现有效学习。英伟达正在将该物理引擎整合进 Nvidia 的 ISAAC 模拟器,这一整合使我们能够以真实的方式让这些机器人 “活” 起来。

英伟达将设立中国台湾办事处,正为其打造第一台巨型 AI 超算

黄仁勋宣布,英伟达将在中国台湾开设新的办事处,名为 “Nvidia Constellation”。

黄仁勋介绍称,英伟达正在为中国台湾的 AI 基础设施和生态系统建造第一台巨型 AI 超级计算机。

以下为发布会直播文字整理:

【12:37】

黄仁勋宣布,英伟达将在中国台湾开设新的办事处,名为 “Nvidia Constellation”。

【12:28】

黄仁勋表示,正在与汽车行业并行推进机器人系统,使用 Isaac Groot 平台,Isaac Groot 平台由一种名为 Jetson Thor 的新处理器驱动,专为机器人应用而设计,适用于从自主车辆到人机系统。英伟达的 Isaac 操作系统管理所有神经网络处理、传感器处理和数据管道,利用一支专业机器人团队开发的预训练模型来增强系统能力。

黄仁勋还表示,正在将其 AI 模型应用于自动驾驶汽车,与梅赛德斯在全球范围内推出一支车队,使用英伟达端到端自动驾驶技术,今年即可实现。

他认为,机器人将成为下一个价值数万亿美元的产业,但这需要很多努力。英伟达的机器人部门有能力做到这一点,而这仅仅是因为可扩展性。

【12:23】

黄仁勋表示,已与 DeepMind 和 Disney Research 研究合作开发了全球最先进的物理引擎 Newton,计划于七月开源。

据介绍,Newton 完全支持 GPU 加速,具有高度可微性和超实时操作能力,能够通过经验实现有效学习。英伟达正在将该物理引擎整合进 Nvidia 的 ISAAC 模拟器,这一整合使我们能够以真实的方式让这些机器人 “活” 起来。

【12:12】

黄仁勋表示,DeepSeek-R1 展示了突破性的性能提升,与 H100 等领先竞争对手相比,其计算能力提高了四倍。DeepSeek-R1 对人们理解 AI 和推理有巨大的影响,对行业和世界做出了巨大贡献。

【12:00】

黄仁勋表示,此前在 CES 上谈到的 Project DIGITS 的个人 AI 计算机 DGX Spark 已全面投产,即将在未来几周上市。它面向那些想要拥有自己的超级计算机的人,各公司将自行定价。黄仁勋表示:“每个人都可以在圣诞节拥有一台。”

【11:51】

黄仁勋表示,下一代超算采用了核心技术,实现了每秒 14.4TB 的全连接带宽,利用 NVLink Spine、定制的盲插背板以及 5000 条铜线,达到惊人的每秒 130TB 带宽。

该系统整合了 72 个 Blackwell 处理器或 144 个 GPU 芯片,相互连接形成一个广泛的 GPU 系统,配备两英里长的铜线,拥有总计 1.3 万亿个晶体管。

【11:49】

黄仁勋介绍称,英伟达正在为中国台湾的 AI 基础设施和生态系统建造第一台巨型 AI 超级计算机。

黄仁勋表示,为了满足对更大计算能力的需求,推出了一种名为 “Grace Blackwell” 的新系统,它将普通计算机转变为强大的超级计算机。

我很高兴地宣布,我们的 Grace Blackwell 系统在经历了艰难的开发过程后,现在已全面投入生产。基于 HGX 主板的 Blackwell 系统自去年以来已全面投入生产,并于 2 月开始交付。Grace Blackwell 已被多家云服务提供商采纳,并在 Twitter 等平台上获得广泛认可。

我们计划在本季度升级到 Grace Blackwell GB300 版本,GB300 配备了升级版 Blackwell 芯片,其推理性能提升了 1.5 倍,HBM 内存容量增加了 1.5 倍,网络连接能力翻倍,增强了整体系统性能。

【11:35】

黄仁勋展示 GB200 Grace Blackwell 超级芯片。

黄仁勋表示,英伟达的 AI 算力每 10 年提升大约 100 万倍,公司已与台积电的合作促成了一种名为 COOS-L 的新工艺,使得大规模芯片的制造成为可能,同时公司开发了全球最快的交换机 NVLink,目前运行速度为 7.2TB。

【11:29】

黄仁勋表示,CUDA 库可以帮助将人工智能代入 5G 甚至 6G 网络,同时还能进行计算。这一切都是通过英伟达实现的。

黄仁勋表示,物理 AI 是机器人革命的基石,需要大量的算力来训练,因此英伟达推出了 Grace Blackwell:会思考的机器。

【11:25】

黄仁勋谈及 CUDA-X 库的加速计算,不止和 GPU 有关,黄仁勋还介绍了它用于天气分析的 Earth-2、用于深度学习的 Megatron Dynamo 等等。

【11:19】

黄仁勋手持一块 RTX 5060 GPU,还有一台搭载 RTX 5060 的全新 MSI 笔记本电脑,表示后者会在五月上市,“肯定会发布”。

【11:00】

黄仁勋准时现身会场,表示将 “带来一些惊喜”。

黄仁勋表示:

“十年后我们会说,我们需要无处不在的人工智能,就像互联网和电力一样。”