
英伟达(分析师小会):IT 行业将成为 Token 分销商,50% 的现金流用于股东回报
以下为海豚君整理的英伟达 GTC2026 分析师小会的纪要,GTC 大会解读请移步《英伟达 GTC:AI 界春晚,满心期待、扫兴而归?》
一、$英伟达(NVDA.US) 小会核心信息回顾
1. 需求展望:Blackwell+Rubin 至 2027 年底的确定性需求(采购订单和坚定需求)超 1 万亿美元,且不包含 Rubin Ultra、Feyn、独立 Vera CPU、Groq 等新产品。预期在此基础上持续新增订单。
2. 股东回报:公司计划将 50% 的自由现金流通过 “股票回购 + 股息的方式” 返还给股东,该比例暂未考虑 1 万亿美元以上 Blackwell+Rubin 需求之后的 “增量部分”。若增量部分落地,公司将有额外的空间提升股东回报的比例或规模。2026 年上半年公司需先完成既有投资承诺,之后会加大股票回购的推进力度;向股东返还资本仍是公司后续的核心工作之一。
3. 毛利率逻辑:每代产品持续交付 token/秒/瓦的数倍提升,客户宁愿以更高价格购买新一代产品也不愿以低价购买上一代,这是毛利率可持续的核心支撑。
4. 现金用途优先级:第一是供应链投资(预付款、产能建设)以支撑万亿美元级出货;第二是生态系统投资;第三是股东回报。
二、英伟达分析师小会详细内容
2.1 高管陈述核心信息
1. AI 三大拐点与 Agentic 系统
a. AI 三大拐点:生成式 AI → 推理能力 → Agentic 系统(当前所处阶段)
b. Agentic 系统具备自主执行任务能力,写代码是最流行应用之一
c. 工程师入职现在除了拿到笔记本电脑,还会获得 token 预算——token 预算已成为真实的企业支出项
d. 计算机从工具变为"制造设备",类似 ASML 光刻机,产出 token 并销售
2. Open Claw 与软件生态
a. Open Claw 是开源 Agent 框架,150 万人下载并用一行代码构建自己的 Agent
b. 英伟达将其打造为企业级版本 Nemo Claw
c. Open Claw 是整个 Agentic 计算架构的操作系统,每家公司都需要 Open Claw 策略
d. 全球 2 万亿美元 IT 软件行业将集成 AI 模型(OpenAI、Anthropic、开源模型)并转售 token,市场规模可能扩展至 8 万亿美元
3. 需求与客户结构
a. 2025 年新增 Anthropic、Meta SL 为平台客户,开源模型成为第二大 token 生成来源
b. 市场格局:OpenAI 的模型规模是最大的、各类开源模型的规模是第二位、Anthropic 排在第三、其余各类模型就依次往后排(后续的长尾模型阵营,其实体量也相当庞大)
c. 收入结构:约 60% 来自超大规模客户,约 40% 来自区域云、工业、企业本地部署(Dell、联想、HP 等)
d. 40% 的非超大规模客户业务完全依赖英伟达全栈能力,仅凭芯片无法触达
4. Vera Rubin vs Grace Blackwell 的 TAM 扩展
a. Vera Rubin 相比 Grace Blackwell 新增约 50%的市场机会
b. 新增来源:Groq 加速器(增加约 25% 计算支出)、存储(第二大计算支出)、CPU 工具使用(约 5%)
c. 全部统一为单一机架架构,100% 液冷,完全优化
d. Grace Blackwell 时代聚焦推理,Vera Rubin 时代解决完整 Agentic 系统需求
5. 公司组织与年度产品节奏
a. Jensen 直接管理团队 60 人,组织架构完全对齐产品架构
b. 7 款芯片统一 tape-out 时间表,全部软件栈自研(存储、网络、Dynamo 工厂操作系统等)
c. CUDA 兼容性确保新系统 Day 1 即可运行上一代软件
d. 拥有完整软件栈是实现年度产品迭代的核心前提——外包任何环节都无法实现
2.2 Q&A 问答
Q:超大规模客户的 API 和云收入何时能体现出与资本支出匹配的上行空间?
A:我希望那些公司是上市公司,那样你就能看到我看到的东西。历史上没有哪家初创公司以每周增加 10-20 亿美元收入的速度在增长,但这正是它们现在的情况。整个 IT 软件行业 2 万亿美元规模不会被颠覆,而是会被变革。每家 IT 公司都将整合 OpenAI、Anthropic 和开源模型,通过 Open Claw 构建 Agent。100% 的全球 IT 行业将成为 OpenAI 和 Anthropic 的 token 分销商。未来这个行业可能从 2 万亿美元的软件许可扩展到 8 万亿美元,同时转售大量 token。所以结论是:提高你对 OpenAI 和 Anthropic 的收入预期。
Q:Agentic AI 对 Vera Rubin 机架架构的需求和价格影响如何?
A:我们将所有组件统一到单一机架架构——相同的供电、相同的冷却系统、100% 液冷、完全优化。要运行 Agentic 系统,你需要在 GPU 计算支出基础上增加约 25% 来部署 Groq。Groq 使用约 8 倍数量的芯片,整体成本约等于 NVLink 72 机架。(25% 的规模翻倍,最终带来的是算力总支出只增加 25%)
这不在 1 万亿美元之内——如果 100% 的 1 万亿美元工作负载都加上 Groq,就变成 1.25 万亿美元。加上存储(第二大计算支出)和 CPU(约 5%),Vera Rubin 相比 Grace Blackwell 总共增加约 50% 的市场机会。Grace Blackwell 时代我们在解决推理问题,Vera Rubin 时代我们在解决完整的 Agentic 系统需求。
Q:英伟达产生的大量现金将如何战略性使用?
A:优先级第一是支持增长——供应链方面我们与合作伙伴长期合作,帮助他们规划业务,有时预付甚至资助他们的产能扩张,因为我们要为 1 万亿美元以上的出货做准备。第二是投资生态系统,CUDA 开发者和 AI 原生企业的成长非常重要。之后仍然会产生大量自由现金流。从当前来看,股票回购加股息合计约占自由现金流的 50%。上半年需要先完成一些已有投资承诺,之后"增量"部分还会带来额外的回购空间。
Q:如何回应外界关于英伟达攫取过多生态系统价值、毛利率不可持续的质疑?
A:几乎所有我昨天讲的内容都是全新视角。大家需要理解token 经济学。如果我们每年持续交付 token/秒/瓦的数倍提升,如果我们通过引入新的 token 细分市场持续提升客户的 ASP,客户会非常乐意继续与我们合作。
核心逻辑是:你不是在转卖电脑,你是在用电脑生产 token。电脑贵但技术卓越,能以极高效率生产低成本 token——你同时拥有最贵的电脑和最低成本的 token 产出。这就是我们的工作,也是我们毛利率的来源。就像台积电的晶圆最贵但价值最好,ASML 的设备最贵但物有所值。问题很简单:你想赚更多钱,还是想买最便宜的设备?任何人说"我的芯片便宜 30%"——把它放到整个工厂的经济效益里看,你就会发现那个人不理解 AI。
Q:你预计 2027 年会面临产能短缺,能否具体说明瓶颈在哪里?客户是否在控制采购节奏等待下一代?
A:我告诉 Satya"买你今年需要的,因为明年会有更好的"——这句话就是我说的。关于供应,世界在某种程度上总是受限的。我们在多个维度、多个供应商之间协调,确保系统和谐——不多不少。如果我告诉你某个具体品类受限,我知道你们会怎么做(暗示分析师会过度解读)。系统是和谐的:不多不少的电力、施工人员、线缆、光学器件。我们每天都在优化。需求在加速增长,而且我们有能力支撑这个供应。
Q:铜缆与 CPO(共封装光学)的过渡路径是怎样的?NVL 576 和 NVL 1152 如何并行?
A:我们应该尽可能长时间使用铜缆——铜缆的极限大约在 1 米左右。你看到我们从 NVLink 72 扩展到 Rubin Ultra 的 NVLink 144,背板设计支持这种扩展。如果能从 144 扩展到 288,我们会很乐意,因为铜缆易制造、更可靠、人类用了很长时间。
目前 100% 铜缆。下一代 Ultra 将有两个选项:纯铜或铜 +CPO。再下一代 1152 规模时将全部 CPO,因为铜缆有物理距离极限。但即使 NVLink 走向 CPO,以太网扩展、存储等仍将使用铜缆。由于我们有 5 种不同的机架且总需求持续增长,铜缆连接器的总消耗量将继续增长。
Q:不同 token 细分市场的增长前景如何?token 成本下降趋势是否会放缓?
A:token 成本每年都会持续下降——Grace Blackwell 到 Rubin 再到 Rubin Ultra,每一代都会下降。同时 token 的智能程度持续提升,吞吐量持续增加。关键是你必须用"token/秒/瓦"来衡量——你的数据中心大小固定,必须归一化比较。
至于不同细分市场的分布取决于品牌和目标客户。如果你的业务是搜索,大部分在免费层;如果是 Agent 代码,在高端层;如果目标客户平均薪资 5-7 万美元,token 定价就在中间层。目前所有细分市场都在指数级增长,因为我们还处于起步阶段。
Q:State space 模型和混合架构对英伟达意味着什么?Agentic AI 是否需要新的 AI 模型架构?
A:我们运行所有 AI 模型——全 Transformer、离散 token、连续扩散、state space、混合架构——我们的架构之美在于通吃。英伟达之所以被广泛使用,是因为无论研究科学家明天发明什么创新架构,我保证它在 CUDA 上运行良好,因为我们拥有所有必要的计算元素。
Nemotron-3I 采用混合架构是为了处理超长上下文。未来你将与 AI 进行终身对话,如何处理相关的对话记忆是研究前沿。混合架构允许处理超长上下文而不受计算量平方爆炸的影响。我们将其开源,希望所有人使用,目的是推进 AI 而非与任何人竞争。
Q:AI 下游市场的集中度如何?超大规模客户 + 前沿实验室是否占了 80% 以上的实际使用?
A:我把它分成三个维度。第一维度是终端模型:OpenAI 最大,开源模型总量第二,Anthropic 第三,之后长尾也相当长。加上物理 AI 模型(机器人视觉语言动作模型等),模型类型很多。
第二维度是计算在哪里进行:有些公司想自研芯片(我们需要竞争),有些托管英伟达客户(CUDA 只在英伟达上运行),有些是 NCP 基础设施客户(需要完整系统),有些通过 Dell/HP/联想部署本地,有些在边缘(无线网络、机器人、自动驾驶、卫星)。
压缩后就是 60%/40% 的结构。40% 的部分 100% 依赖英伟达全栈——他们不买芯片,买平台,需要机密计算,需要全球部署。60% 中一部分我们要竞争,一部分是我们为云服务商带去的客户。OCI 不会自研芯片,CoreWeave 也不会——在这些领域我们的地位非常稳固。
Q:训练计算需求的未来趋势?训练 vs 推理的算力占比如何演进?
A:训练从预训练发展到后训练。预训练是记忆和泛化——AI 的"高中阶段"。后训练教各种技能:强化学习、可执行验证、工具使用、结构化 API 等。后训练的计算强度我估计大约是预训练的百万倍——因为技能太多,rollout 非常长,模型必须越来越大。
未来几代,预训练将从主要使用互联网数据转向主要使用合成数据,同时加入多模态和物理世界运动。推理和训练的边界将越来越模糊——就像人类何时在学习、何时在应用智慧,其实是连续的。
我的希望是99% 的全球计算最终用于推理,因为推理是将 token 转化为经济价值的地方——没有人为学习付费,人们为 token 的产出付费。这就是英伟达去年全力投入推理的原因。两年前市场说"英伟达擅长训练,推理很简单任何公司都能做"——推理极其困难,看看那张图表就知道了。推理是思考、工作、执行任务,怎么可能容易?
Q:1 万亿美元以上的需求展望是否包含 Rubin Ultra?
A:绝对不包含。这只是 Blackwell + Rubin。不包含 Rubin Ultra、Feyn 或任何其他后续产品。
本文的风险披露与声明:海豚君免责声明及一般披露
