英伟达将其 NVLink 技术开放给其他公司:这对该股票是利好还是利空呢?

Motley Fool
2025.05.21 07:37
portai
我是 PortAI,我可以总结文章信息。

英伟达在台北国际电脑展上宣布,将通过 NVLink Fusion 向其他芯片组开放其 NVLink 技术,从而允许与非英伟达系统的集成。这一举措可以被视为在定制 AI 加速器和传统技术竞争中扩展其网络市场的战略。尽管英伟达的 GPU 销售依然强劲,但其网络收入却滞后,这促使其进行这一转变,以提升销售并适应不断变化的市场动态。该决定可能有助于英伟达在定制 ASIC 在 AI 工作负载中获得市场份额的情况下保持相关性

在上周末的台湾计算机展上,人工智能(AI)GPU 领导者 Nvidia(NVDA -0.99%)做出了一个非常有趣的宣布:它将把其 NVLink 技术开放给其他芯片组,而不仅限于 Nvidia 自家的产品,这一产品被称为 NVLink Fusion。

这一举动无疑是有趣的,可以从正面和负面两个角度进行解读。深入细节来看,这一举动对股东来说是好兆头还是坏兆头?

什么是 NVLink?

如今,AI 处理远不止是一个芯片的工作。相反,Nvidia 首席执行官黄仁勋认为,整个服务器甚至完整的机架可以作为一个 “巨型芯片” 来运作。例如,Nvidia 刚刚开始销售 GB200 NVL72 机架,其中包含 72 个 Blackwell GPU 和 36 个 Grace CPU,所有这些都通过 Nvidia 自家的网络技术连接在一起。

这些 Nvidia 网络技术本质上是两个产品系列:NVLink 和 Infiniband。NVLink 是一种连接技术,用于在服务器内连接 GPU,而 Infiniband 则用于将整个服务器连接在一起。

Nvidia 在做什么

上周末,Nvidia 宣布了 NVLink Fusion,使系统制造商能够在不包含 Nvidia 芯片的服务器中集成 NVLink 技术。

例如,NVLink Fusion 可用于连接大型云公司为自己设计的定制 ASIC。Marvell Technologies(MRVL -2.09%)被 Nvidia 指定为该项目的关键合作伙伴。Marvell 不仅为云巨头的芯片(如 Amazon 的 Trainium)制造定制的 AI 加速器组件,还生产各种数据中心互连技术。

此外,NVLink Fusion 还允许 Nvidia GPU 连接到非 Grace CPU。例如,FujitsuQualcomm 正在尝试进入数据中心 CPU 领域,并且根据新闻稿,他们也与 Nvidia 合作进行 NVLink Fusion,希望能够被纳入更多的 Nvidia AI 系统。

新闻稿中提到的其他合作伙伴包括电子设计自动化软件巨头 SynopsisCadence Design Systems,它们帮助芯片制造商设计芯片组和整个系统,以及其他数据中心连接公司。

图片来源:Getty Images。

Nvidia 为什么要这样做?

有些人可能会想,Nvidia 为什么要将其 NVLink 技术基本上开放给其他公司,考虑到拥有一个 “封闭” 的生态系统将迫使客户购买完整的 Nvidia 解决方案,包括 Nvidia 的 GPU 和 CPU。那么,Nvidia 为什么会如此 “友好” 和 “开放”?

Nvidia 已经向不使用其 NVLink 技术或 Infiniband 的系统销售了大量 GPU,最近的结果显示其网络设备销售远远落后于芯片销售。上个季度,尽管 Nvidia 的数据中心半导体收入增长了 116%,但其数据中心网络收入实际上下降了 9%。

原因可能是来自传统网络技术的竞争,这些技术正在被行业更新以适应 AI。例如,去年,一些主要科技巨头组成的财团联合创建了 UALink,这是 NVLink 的一个开源替代品。这是在 2023 年由这些公司成立的超以太网财团的基础上,后者创建了一种基于以太网的替代方案,以对抗 Nvidia 的 Infiniband——即使在基于 Nvidia GPU 的系统中也是如此。

由于其网络技术的采用程度不及其 GPU,Nvidia 可能试图扩大其网络可寻址市场,以便在非 Nvidia 系统中提升销售。

这也可能是一个防御性举措

除了扩大网络市场,Nvidia 可能还在承认定制设计的 AI 加速器相对于 Nvidia 芯片的采用率在增加。虽然 Nvidia 的 GPU 不会消失,但请记住,Nvidia 在极其昂贵的芯片上大约有 75% 的毛利率。当一家云公司设计自己的定制 AI 加速器时,它只需支付给代工厂的毛成本。因此,这意味着云公司在制造自己的定制芯片时,只需支付大约 25% 的 Nvidia 芯片成本。

虽然设计自己芯片会有额外的研发成本,但由于 AI 加速器非常昂贵,并且在最新的 AI 系统中以大规模部署,毛成本远远超过这些额外的研发设计成本。

因此,ASIC 的需求正在上升。根据 The Information Network 的数据,定制 ASIC 的市场份额从 2023 年的约 22% 增加到预计 2025 年的 30%,而 GPU 的市场份额则从 2023 年的约 72% 降至预计今年的 65%。根据分析师的说法,CPU 和 FPGA 占据了剩余的约 5% 的 AI 工作负载。

现在,Nvidia 仍然应该会增长,因为整体 AI 基础设施市场仍在快速增长。然而,Nvidia 可能会随着时间的推移继续失去市场份额给成本更低的定制 ASIC。通过开放其 NVLink 技术,它可能仍然会找到进入这些云巨头系统的方法,即使 ASIC 从 GPU 中获得了更多的市场份额,也能带来增量收入机会。

这对股东意味着什么

总体而言,Nvidia 尝试获得对云巨头 ASIC 系统的接触可能是个好主意,因为这些系统可能会随着时间的推移而获得市场份额。然而,新的 NVLink Fusion 产品可能对那些预期 Nvidia GPU 长期超高速增长,或至少在这些相同利润率下持续超高速增长的人发出警告。

虽然 Nvidia 目前确实拥有先发和软件优势,但云巨头有能力投资于自己的硅,并且只要他们能够节省数百亿美元,他们就会继续这样做。看起来 Nvidia 可能正在通过 NVLink Fusion 承认这一现实。