
赛道 Hyper | Vera Rubin:英伟达君临 AI 天下秀

CPU 和 GPU 新架构,已在路上。
AI 成了 COMPUTEX(台北国际电脑展)2024 当仁不让的主角和焦点。
在包括英伟达、Intel、AMD、高通、联发科和 Arm 等在内的一众各种终端芯片设计商中,英伟达当属最受瞩目者。6 月 5 日,英伟达股价创出新高,报收 1224.40 美元,涨幅 5.16%,市值追平苹果,已达 3 万亿美元。
英伟达联合创始人兼 CEO 黄仁勋在 COMPUTEX2024 大会上更新了 AI GPU 技术路线图:2025 年,英伟达将发布 Blackwell Ultra,2026 年推出新架构 Rubin,2027 年发布 Rubin Ultra。
从 2023 年 10 月的投资者会议开始,英伟达将原本两年一更新芯片新品的节奏,改成一年一更新。在那次会议上,黄仁勋宣布,预计今年会推出 H200 和 B100 GPU;2025 年,英伟达 X100 GPU 也将面世。
根据去年 10 月的规划框架,英伟达 AI 芯片规划的战略核心是 “One Architecture” 统一架构,支持在任何地方做模型训练和部署,无论是数据中心(IDC)还是边缘设备,抑或 x86 和 Arm 架构。
也就是说,英伟达 AI 芯片解决方案适用于超大规模数据中心的训练任务,也可以满足企业级用户的边缘计算需求,涵盖 x86 或新兴的 Arm 架构生态。
目前,英伟达同时拥有 GPU、CPU 和 DPU(数据处理单元:Data Processing Unit)的计算芯片和系统公司。通过 NVLink、NVSwitch 和 NVLink C2C 技术,英伟达将 CPU 和 GPU 做了灵活连接组合,形成统一的硬件架构,并与 CUDA 一起,形成完整的软硬件生态。
DPU 是一种专门用于数据处理的处理器。与通用处理器(CPU)和图形处理器(GPU)不同,DPU 专注于数据处理,可以实现更高效的数据处理和计算。
抛开黄仁勋的软广告宣传,比如回顾了英伟达在过去的成功历程、在算力方面降低成本的努力,以及 “是英伟达促成了当今的 AI 时代”,并且再次强调 CUDA 的 AI 平台级价值——正是因为有了 CUDA,全球的深度学习科学家们才能充分利用其潜力,从而推动了整个行业的进步——黄仁勋也展望了生成式 AI 时代的未来,这部分是本次大会英伟达的战略公示重点。
黄仁勋说,“我们现在所处的不是简单的 AI 时代,而是一个生成式 AI 时代。在这个时代,几乎所有事物都可以转换成 Token(词元),并通过生成式 AI 进行处理和优化。”
“生成式 AI 将重塑各行各业,推动整个价值 3 万亿美元的 IT 产业转型为 AI 工厂,为每个行业制作 AI 产品。” 黄仁勋说,“未来每台装有 RTX 显卡的 PC 都将成为 AI PC,能够高效地处理和生成各种数据。”
这是不是相当于 AI PC 有了黄氏定义?“每台装有 RTX 显卡的 PC 都将成为 AI PC”。
更核心的焦点,实际上就是黄仁勋公布英伟达 AI GPU 技术路线图:到 2027 年之前,英伟达会更新 GPU 和 CPU 架构,以及 CPU+GPU 二合一超级芯片。
黄仁勋表示,英伟达将坚持使用统一架构覆盖整个数据中心 GPU 产品线,每年更新迭代一次。其中的核心,就是英伟达官宣了替代 “Blackwell” 架构的新一代 GPU 架构 “Rubin”。
截至目前,英伟达高性能 GPU 架构代号 “Blackwell”,已实现量产,相关产品包括用于 HPC/AI 领域的 B200/GB200,以及用于游戏的 RTX 50 系列。
2025 年,Blackwell 迭代版 Blackwell Ultra 将得以面市;2026 年,新架构 “Rubin” 会推出:搭载下一代 HBM4 高带宽内存(8 层堆栈);2027 年,“Rubin” 的迭代版 “Rubin Ultra” 会推出,标准版的 HBM4 内存,由 8 层堆栈升级为 12 层堆栈。
这里有个细节很值得注意:“Rubin” 命名源于美国女天文学家 Vera Rubin(薇拉·鲁宾)。
CPU 方面,“Vera” 架构会取代 2022 年 3 月推出的 Grace CPU 超级芯片。“Vera” 架构名称同样源于 Vera Rubin——前者用于英伟达新一代 CPU 架构名称,后者 Rubin 则成为英伟达新一代 GPU 架构的名称。
此前,英伟达在其 AI 路线图中,并没有将 “Grace” 作为一个独立的 CPU 架构,而将之纳入 “Grace+GPU” 的 SuperChip 超级芯片范畴。
这在营销层面的表达或许不够清晰,但实际上体现了英伟达 “CPU+GPU 二合一超级芯片” 的策略;而此次官宣 “Vera Rubin” 之 “CPU+GPU” 架构,让竞对看到了英伟达在 AI 领域强悍的统治力。
在 SuperChip 超级芯片架构中,NVLink-C2C 和 NVLink 互联技术在英伟达未来的 AI 芯片架构中,将持续发挥关键作用。
本次大会上,黄仁勋公示了 Vera CPU 和 Rubin GPU 组成新一代超级芯片的最新规划:采用第六代 NVLink 互连总线,带宽高达 3.6TB/s。
NVLink-C2C 互联技术的作用是什么?
英伟达以之构建 GH200、GB200 和 GX200 超级芯片;再通过 NVLink 互联技术,两颗 GH200、GB200 和 GX200 能被链接成 GH200NVL、GB200NVL 和 GX200NVL 模组。之后,英伟达能将之通过 NVLink 网络组成超节点,再用 InfiniBand 或 Ethernet 网络,最终组成更大规模的 AI 集群。
InfiniBand 或 Ethernet 网络是什么?这是英伟达交换芯片技术:前者瞄准 AI Factory,后者侧重 AIGC Cloud。相较于 NVLink 总线域网络,InfiniBand 和 Ethernet 属于传统网络技术,两种网络带宽比例大约为 1:9。
在此次大会上,黄仁勋公布了这两条开放的芯片交互技术路线中的 InfiniBand 技术和产信息更新:新一代数据中心网卡 CX9 SuperNIC,最高带宽可达 1600Gbps,也就是 160 万兆,搭配新的 InfiniBand/以太网交换机 X1600。
根据 2023 年 10 月举行的英伟达投资者会议内容,以 InfiniBand 为基础的 Quantum 系列和以 Ethernet 基础的 Spectrum-X 系列将持续升级。预计到 2024 年,基于 100G SerDes 的 800G 接口的交换芯片将实现商用;2025 年,基于 200G SerDes 的 1.6T 接口的交换芯片也会面市。

