
英伟达(纪要):GB300 已经出货,Rubin 按原计划明年量产
以下为海豚投研整理的 英伟达 2026 财年第二季度的财报电话会纪要,财报解读请移步《英伟达:宇宙第一股,不够炸裂就是罪?》
一、$英伟达(NVDA.US) 财报核心信息回顾
1. 整体业绩与财务亮点 (Q2)
a. 总营收: 达到创纪录的 467 亿美元,超出预期,所有市场平台均实现环比增长。
b. 数据中心营收: 同比增长 56%。尽管受中国政策影响,H20 产品营收下降 40 亿美元,但数据中心业务仍实现环比增长。
c. 毛利率: GAAP 毛利率为 72.4%,非 GAAP 毛利率为 72.7%。若排除 H20 库存释放带来的收益,非 GAAP 毛利率为 72.3%,仍高于预期。
d. 股东回报: 通过股票回购和现金股息向股东返还 100 亿美元。董事会新增 600 亿美元 的股票回购授权。
e. 库存: 为支持新产品爬坡,库存从 110 亿美元增至 150 亿美元。
二、英伟达财报电话会详细内容
2.1 高管陈述核心信息
1. 产品与技术进展:
a. Blackwell:需求强劲,营收达到创纪录水平,环比增长 17%。已成为 AI 推理性能的新标准。GB300 已于 Q2 开始生产出货,目前正全速生产,周产约 1000 个机架,预计 Q3 将进一步加速。
- 性能:GB300 相比 Hopper,每 token 能效提升 10 倍 到 50 倍。300 万美元的 GB200 投资可产生 3000 万美元的 token 收入。使用 NVFP4 格式,GB300 的训练速度比 H100(FP8)快 7 倍。
- 生态采用:获得 AWS、Google、Microsoft、OpenAI、Meta、Mistral 等所有主流云厂商和 AI 公司的广泛采用。
b. Hopper (H100/H200):H100 和 H200 的出货量在本季度有所增加,表明市场对加速计算的需求广泛存在。
c. Rubin:芯片已进入晶圆厂(in fab),平台按计划将于明年量产,延续了 NVIDIA 每年一代新产品的创新步伐。
d. Networking:营收创下 73 亿美元 的纪录,环比增长 46%,同比增长 98%。
- SpectrumX 以太网: 年化收入已超 100 亿美元。
- InfiniBand: 受益于 XDR 技术,收入环比几乎翻倍。
- NVLink: 带宽是 PCIe Gen 5 的 14 倍,增长强劲。
2. 各业务部门表现:
a. Data Center:依然是增长核心引擎,受益于 AI 基础设施建设浪潮。
- 主权 AI 成为重要增长动力,预计今年该领域收入将超 200 亿美元,是去年的两倍多。
- RTX PRO 服务器已全面投产,有望成为数十亿美元的产品线,服务于企业级 AI 应用和数字孪生。
b. Gaming:营收创纪录达 43 亿美元,环比增长 14%,同比增长 49%。增长由 RTX 5060 桌面 GPU 和 Blackwell 架构新品驱动。GeForce NOW 云游戏服务将于 9 月迎来重大升级,引入 Blackwell 性能。
c. Professional Visualization:营收 6.01 亿美元,同比增长 32%,由高端 RTX 工作站 GPU 驱动。
d. Automotive:营收 5.86 亿美元,同比增长 69%,主要由自动驾驶方案驱动。新一代 SoC Thor 已开始出货,性能比 Orin 有数量级提升。
3. 中国市场讨论:Q2 来自中国的收入下降至数据中心业务的低个位数百分比。美国政府开始审查 H20 产品对华销售许可,虽然部分客户已获批,但 NVIDIA 尚未发货。美国政府表达了可能收取 15% H20 销售收入的意向,但尚未立法。
a. 对 Q3 展望的影响:Q3 展望完全不包含 任何对华 H20 销售收入。如果问题解决,Q3 可能增加 20 亿至 50 亿美元 的 H20 收入。
b. 英伟达继续倡导批准 Blackwell 等产品对华销售,认为这有利于美国经济和技术领导地位。
4. 第三季度业绩展望 (Q3):
a. 总营收:预计为 540 亿美元 (±2%),意味着环比增长超过 70 亿美元。
b.毛利率:预计非 GAAP 毛利率为 73.5% (±50 个基点),并预计年底达到 75% 左右。
c. 运营费用: 预计全年运营费用同比增长将在 35-40%,高于此前预期,以抓住增长机会。
5. 行业趋势:管理层认为我们正处在一场由 AI 驱动的工业革命的开端。预计到 2030 年,AI 基础设施年支出将达到 3 万亿至 4 万亿美元。
a. 增长驱动力:①推理型和代理型 AI(Agentic AI)对算力的巨大需求。②全球范围的主权 AI 建设。③企业 AI 的广泛采用。④物理 AI 与机器人技术的兴起。
b. 机器人: Thor 计算平台和 Omniverse 数字孪生平台正在被亚马逊、波士顿动力、Figure AI 等领先企业采用,将成为数据中心需求的长期驱动力。
2.2 Q&A 问答
Q:考虑到从晶圆到机架出货有 12 个月的周期,并且您确认 Rubin 平台将于明年下半年开始量产,您能否从更高层面阐述一下公司对 2026 年增长的愿景?特别是数据中心和网络这两块业务的增长前景。
A:推动我们长期增长的最核心驱动力,是 AI 技术从 “单次问答” 向 “推理型和代理型 AI(Agentic AI)” 的革命性演进。过去的聊天机器人是给一个提示、生成一个答案;而现在,AI 能够进行研究、思考、制定计划,甚至使用工具,这个 “长思考” 过程需要比以往多出百倍甚至千倍的计算量。这种演进极大地提升了 AI 的有效性,显著减少了 “幻觉” 现象,并使其能够执行实际任务,从而为企业级应用和物理 AI(如机器人、自动驾驶系统)打开了突破口。
我们多年前就开始为此准备,推出了 Blackwell NVL72 这一 “机架即计算机” 的系统,实现了计算节点规模的巨大跨越。虽然技术实现极具挑战,但结果是性能、能效和成本效益都获得了数量级的提升。展望未来,从现在到 2030 年,我们将通过 Blackwell、Rubin 及其后续产品,持续扩展并抓住这个价值 3 到 4 万亿美元的 AI 基础设施建设机遇。过去两年,仅四大云服务提供商的资本支出就已翻倍至约 6000 亿美元,我们认为这仅仅是这场大规模建设浪潮的开端。AI 技术的进步正使其能够真正深入并解决各行各业的问题。
Q:关于中国市场那 20 亿至 50 亿美元的潜在收入,需要满足什么条件才能实现?另外,进入第四季度后,您认为中国业务的可持续营收水平会是怎样的?
A:要实现 H20 产品的出货,目前有几个关键因素。我们已经收到了首批许可证,客户对 H20 产品有兴趣,并且我们也准备好了相应的供应。因此,我们估算本季度有潜力出货 20 亿至 50 亿美元。然而,目前情况仍不明朗,因为政府间的地缘政治问题以及客户自身的采购决策仍在动态变化中,所以我们还不确定最终能实现多少。如果后续有更多客户兴趣和许可证获批,我们也有能力生产并出货更多。
Q:关于竞争格局,您的大客户们都在开发或计划自己的 ASIC 芯片。有竞争对手也预示明年其 AI 业务将有大幅增长。您认为市场有没有可能从 NVIDIA 的 GPU 转向 ASIC?您从客户那里听到的反馈是什么?他们是如何平衡使用商用芯片(如 NVIDIA 产品)和自研 ASIC 的?
A:NVIDIA 提供的产品与 ASIC 有本质区别。虽然许多公司启动了 ASIC 项目,但很少能真正投产,因为加速计算是一个极其复杂的全栈协同设计问题,远非简单地将软件编译到处理器上。当今的 AI 工厂是计算机科学史上最极致的难题,模型架构(如从自回归到扩散模型)迭代速度极快,而 NVIDIA 的平台能够灵活适应所有这些变化,并加速从数据处理到最终推理的整个工作流程。
我们的核心优势在于构建了一个无处不在的、统一的生态系统。从云端到本地再到机器人,开发者都可以在同一个编程模型(CUDA)下工作,因此全球所有 AI 框架都首选支持 NVIDIA,这使得基于我们平台构建的数据中心拥有最高的效用和最长的生命周期。此外,我们提供的是一个极其复杂的系统级解决方案,远不止一颗 GPU。以 Blackwell 和 Rubin 平台为例,它集成了定制 CPU、SuperNIC、第五代 NVLink 交换机、Spectrum-X 网络以及最新的跨数据中心连接技术,这种系统级的复杂性是单一 ASIC 无法比拟的。
最后,我们被所有云厂商选择的关键在于极致的经济效益。在电力受限的数据中心时代,我们拥有业界最佳的 “每瓦性能”,这直接转化为客户的营收能力。同时,我们无与伦比的 “每美元性能” 也为客户带来了丰厚的利润空间。总而言之,NVIDIA 提供的是一个用于 AI 工厂的、整体性的全栈解决方案,这就是我们成为行业首选的原因。
Q:您最近将 AI 基础设施的市场规模预期从之前的 1 万亿(主要指计算)大幅上调到 2030 年的 3 至 4 万亿。这是否意味着您预测到 2030 年,仅 “计算” 部分的支出就可能超过 2 万亿美元?您预计 NVIDIA 届时能占据多大的市场份额?要实现 3 至 4 万亿这个规模,您认为是否存在像 “电力” 这样的潜在瓶颈?
A:3 到 4 万亿美元的市场规模是一个合理的预测。我们看到,仅四大云服务提供商(CSP)的资本支出在过去两年就已翻倍至每年 6000 亿美元,而这仅仅是市场的一部分,还不包括全球其他云服务商、各国主权 AI 以及大量企业在本地部署的投资。未来五年,随着 AI 的普及,我们预计全球计算设施的分布会更贴近 GDP 的分布格局,而 AI 本身也将加速 GDP 的增长。
在这样一个典型的 AI 工厂或数据中心中,NVIDIA 扮演着 AI 基础设施公司的角色。以一个耗资 500 亿到 600 亿美元、功率达吉瓦(Gigawatt)级别的 AI 工厂为例,NVIDIA 提供的价值约占其中的 35%。我们提供的远不止是 GPU 芯片,而是一整套复杂的系统,例如构建一台 Rubin 超级计算机就需要六种不同类型的芯片,并将其扩展到数十万个计算节点。
关于瓶颈,电力确实是未来的主要限制因素之一。因此,我们的核心任务就是不断提升 “每瓦性能”(performance per watt)。对于一个固定功率(比如 100 兆瓦)的 AI 工厂来说,其产出(即能生成的 Token 数量)直接决定了其收入。NVIDIA 的技术能从每单位能源中压榨出最多的计算性能,从而直接提升客户的营收能力。同时,我们极高的 “每美元性能” 也保证了客户能获得最好的利润率。因此,解决电力等瓶颈的关键就在于持续提升技术效率,这也是我们专注的方向。
Q:您曾提到中国拥有全球一半的 AI 软件人才,那么 NVIDIA 在这个市场有多大的增长潜力?未来,让 Blackwell 这样的先进架构能够在中国获得许可并销售,对公司的业务发展有多重要?
A:我估计,如果没有限制,中国市场今年对我们来说本应是一个价值 500 亿美元的机会,并且会像全球 AI 市场一样,以每年 50% 左右的速度增长。中国是全球第二大计算市场,并且拥有全球约一半的 AI 研究人员。许多领先的开源模型,如 DeepSeek、Qwen 和 Kimi,都诞生于中国,这些模型对于推动全球企业、SaaS 公司和机器人领域采用 AI 至关重要。因此,对于美国科技公司而言,能够服务这个市场非常重要。我们一直在与美国政府沟通,强调让美国公司参与中国市场竞争的重要性,这有助于美国技术栈成为全球标准,从而赢得 AI 竞赛。目前,H20 已被批准销售给非实体清单上的公司,并且许多许可证也已获批。鉴于此,我认为未来将 Blackwell 架构引入中国市场是一个真实的可能性,我们会继续为此努力倡导。
Q: 您最近发布的 Spectrum-XGS(用于连接多个 AI 集群)的市场机会有多大?我们是否可以将其理解为数据中心之间互联(DCI)的新层次? 在您年收入已超过 100 亿美元的以太网产品组合中,Spectrum-XGS 未来能贡献多大的业务规模?
A:我们现在提供三种不同层级的网络技术:用于 “纵向扩展”(Scale-Up)的 NVLink、用于 “横向扩展”(Scale-Out)的 InfiniBand 和 Spectrum-X 以太网,以及最新发布的用于 “跨集群扩展”(Scale-Across)的 Spectrum-XGS。
1. Scale-Up: 核心技术是 NVLink,它的作用是构建尽可能大的虚拟 GPU 计算节点。Blackwell 平台革命性的 NVLink 72 技术极大地增强了内存带宽,这对于需要长时间思考的 Agentic AI 和推理系统至关重要,是其性能实现巨大代际飞跃的关键。
2. Scale-Out: 我们提供两种选择。首先是 InfiniBand,它拥有无与伦比的低延迟和低抖动,是超级计算和顶尖模型开发者的明确首选,能带来最佳的 AI 工厂性能。其次是 Spectrum-X 以太网,它并非普通以太网,而是我们专为 AI 优化的技术,通过拥塞控制等设计,使其性能远超其他以太网,非常接近 InfiniBand,适合希望统一使用以太网技术栈的数据中心。
3. Scale-Across: 这就是 Spectrum-XGS 的定位,它是一种吉瓦(Giga-scale)级别的技术,用于将多个独立的 AI 工厂或数据中心连接成一个巨大的 “超级工厂” 系统。
对于 AI 工厂而言,选择正确的网络技术至关重要。一个高效的网络能将工厂的整体计算吞吐效率从 65% 提升到 85% 甚至 90%。对于一个耗资 500 亿美元的吉瓦级 AI 工厂来说,效率提升几十个百分点就意味着创造了百亿甚至两百亿美元的额外价值。这种巨大的回报使得对先进网络的投资几乎可以说是 “免费” 的。这正是我们五年半前收购 Mellanox 并持续大力投入网络技术的原因。我们的 Spectrum-X 以太网在推出仅一年半后就已成长为一项规模可观的业务,取得了巨大成功。我们相信,这三层网络技术都将取得出色的发展。
Q:我们应该如何理解这 70 亿美元的增量在 Blackwell、Hopper 和 网络 Networking 这三个部分之间的分配?您认为 Hopper 的强势表现会持续下去吗?请问我们该如何拆解这 70 亿美元的增量?
A:从第二季度到第三季度的增长来看,Blackwell 将继续是我们数据中心业务增长的绝对主力,这一点是明确的。您应该预期 Blackwell 将是驱动我们业绩增长的核心引擎。但请记住,Blackwell 的强劲销售会同时拉动我们的计算(Compute)和网络(Networking)两大块业务,因为我们卖出的是包含刚才提到的 NVLink 技术的完整系统。
至于 Hopper,我们确实仍在销售 H100 和 H200,尤其是在 HGX 系统形态中。不过,Blackwell 的营收贡献份额会是最大的。虽然我们无法提供更具体的季度内产品线拆分数据,但核心信息是:Blackwell 平台将是增长的主要驱动力。
Q:您如何看待未来从 Blackwell 到 Rubin 的产品过渡策略?与 Blackwell 相比,Rubin 平台能为客户带来哪些新的、增量的功能和价值?从性能提升的角度看,您认为 Rubin 相比于 Blackwell 的进步,是比(Blackwell 对 Hopper 的提升)更大、更小,还是一次相似幅度的飞跃?
A:我们已经进入了每年发布一代新架构的年度周期。我们之所以能这样做,并建议客户也按年度节奏来规划和建设数据中心,根本原因在于这能最大化地为客户降低成本和创造收入。
关键指标是 “每瓦性能”(Perf per Watt),即消耗单位能源所能生成的 Token 数量。Blackwell 在推理系统上的每瓦性能已经比 Hopper 高出一个数量级。由于所有数据中心都受限于能源供应,这意味着使用 Blackwell 可以在同等能耗下,比以往任何架构创造更多的收入,同时其卓越的 “每美元性能”(Perf per Dollar)也能帮助客户提升毛利率。只要我们能不断提出伟大的新构想,我们就会通过发布新架构来持续提升客户的创收能力、AI 能力和利润空间。
Rubin 平台同样承载了大量全新的、突破性的想法。不过,我现在还不能透露具体细节。
当前以及未来一年的重心,是全力推进 Grace Blackwell 和 Blackwell Ultra 的产能爬坡和数据中心部署。今年显然会是创纪录的一年,我预计明年也将再创历史新高。我们将继续朝着两个目标前进:一方面,在技术上向通用人工智能(ASI)迈进,不断提升 AI 性能;另一方面,在商业上持续增强我们超大规模数据中心客户的营收能力。
Q:您说 AI 市场的年复合增长率(CAGR)能达到 50%。考虑到您对明年的业务可见度,这个 50% 的增长率是否可以看作是您明年数据中心业务增长的一个合理参考目标?
A:我们对未来的增长充满信心。一方面,我们从大型客户那里获得了非常可观的明年业务预测,同时还在不断赢得新业务,新的 AI 初创公司也层出不穷。另一方面,市场需求极其旺盛,已经到了 “一切都已售罄” 的程度——H100、H200 都已卖光,初创公司和大型云服务商都在争抢算力,这充分证明了需求的真实与强劲。我们认为,自己仍处于 AI 爆发的早期阶段。
这种增长的背后有几个关键动力。首先,AI 原生初创公司正经历爆发式增长,其融资额和营收都呈十倍速发展。其次,开源模型的普及正在推动大型企业、SaaS 公司和工业巨头全面加入 AI 革命,这开辟了全新的增长来源。从长远看,大型云服务商的年度资本支出(CapEx)已高达约 6000 亿美元,我们在这个巨大的市场中占据重要份额是完全合理的。因此,我们预见到未来几年乃至到 2030 年,都将是快速且显著的增长期。
展望未来,Blackwell 作为世界期待的下一代 AI 平台,正在全速增产以满足其非凡的需求。而我们的再下一代平台 Rubin,构成其核心的 6 款新芯片均已投片生产。我们已经进入了年度迭代的节奏,Blackwell 和 Rubin 平台将支撑起全球在 2030 年前完成价值 3 到 4 万亿美元的 AI 工厂建设。客户正在建设的 AI 工厂规模也在指数级扩大:从数千 GPU 的几十兆瓦设施,到数十万 GPU 的百兆瓦设施,很快我们将迈向数百万 GPU、跨地域的 “吉瓦级” 超级 AI 工厂。
需求本身也在进化。简单的聊天机器人正升级为能够研究、规划和使用工具的 “智能体 AI”(Agentic AI),这使计算需求增长了几个数量级,并开启了广阔的企业级市场。更令人兴奋的是,物理 AI 的时代已经到来,它将开启机器人和工业自动化的全新篇章,未来每个工业公司都需要一个实体工厂和一个 AI 工厂。
总而言之,我们正处在一场新工业革命的开端,前方的机遇是巨大的,而 AI 的竞赛已经全面展开。
<此处结束>
本文的风险披露与声明:海豚投研免责声明及一般披露
