--- title: "英伟达(纪要):算力投入与收入直接挂钩,优先保障供应链安全" description: "以下为海豚君整理的英伟达 2026 财年第四季度的财报电话会纪要,财报解读请移步《英伟达:业绩狂热 vs 股价冰冷,宇宙第一股就此失宠?》$英伟达(NVDA.US) 交流核心信息:1)2027 财年指引:全年 Non-GAAP 毛利率将维持在 75% 左右 (mid-70s),符合上季度交流信息。维持毛利率的关键,在于公司能否持续为客户提供跨代际的性能飞跃。如果每瓦性能提升速度能显著超越摩尔定律." type: "topic" locale: "zh-CN" url: "https://longbridge.com/zh-CN/topics/38899235.md" published_at: "2026-02-26T03:10:45.000Z" author: "[Dolphin Research](https://longbridge.com/zh-CN/news/dolphin.md)" --- # 英伟达(纪要):算力投入与收入直接挂钩,优先保障供应链安全 **以下为海豚君整理的英伟达 2026 财年第四季度的财报电话会纪要,财报解读请移步《**[**英伟达:业绩狂热 vs 股价冰冷,宇宙第一股就此失宠?**](https://longbridge.cn/zh-CN/topics/38895732?channel=SH000001&invite-code=294324&app_id=longbridge&utm_source=longbridge_app_share&locale=zh-CN&share_track_id=fe94bae7-0170-4692-88c6-bde44a1d28b7)**》** $英伟达(NVDA.US) **交流核心信息:** **1)2027 财年指引:全年 Non-GAAP 毛利率将维持在 75% 左右 (mid-70s)**,符合上季度交流信息。维持毛利率的关键,在于公司能否持续为客户提供跨代际的性能飞跃。如果每瓦性能提升速度能显著超越摩尔定律,且每美元性能的提升远超成本的增幅,那么高毛利率就是可以持续的。 **2)数据中心及 Rubin**:目前排名前五的 CSP 确实贡献了约 50% 的总收入。**Rubin 已于本周送样,下半年量产**。其推理成本比 Blackwell 再降 10 倍。**Vera 是目前唯一支持 LPDDR5 的数据中心级 CPU**,其核心设计目标是极高的数据处理能力。 **3)中国市场:虽然 H200 少量获批,但本季未产生收入**。公司对未来出口许可持不确定态度,公司在下季度指引中不含来自中国的算力收入; **4)对下游资本开支的看法**:当前正处于 Agentic AI 爆发的拐点没有算力就无法生成 Token,而没有 Token 就无法产生收入。**算力投入与收入增长是直接挂钩的**。 生成的 Token 是具有生产力且能为客户盈利的,这反过来保证了云服务商(CSP)的盈利能力。为了生成 Token,客户必须拥有足够的算力容量,**资本开支从传统通用计算向加速计算的结构性转移**。 所有数据中心都面临严格的供电限制(无论规模是 100MW 还是 1GW)。在电力受限的情况下,架构的每瓦性能越强,能产生的 Token 就越多,转化成的美元收入就越高。**资本开支转化为算力,算力转化为收入**。 **5)存储问题**:**预计未来几个季度的供应将非常吃紧。**如果供应情况在年底前有所改善,游戏业务仍有机会实现同比增长。 **6)太空数据中心**:**目前太空数据中心的经济性确实较差,但未来会逐步改善**。太空环境的运行逻辑与地面截然不同,尽管面临物理挑战,但确实存在许多必须在太空完成的计算需求。事实上,**Hopper(H100)架构已在轨运行**。太空 GPU 最核心的应用场景之一是超高分辨率成像。更高效的做法是在太空直接进行计算处理,利用 AI 筛选出真正有价值的信息,而忽略大部分无效数据。 **7)业绩出色但股价平淡,是否回购**:供应链保护(战略性投资和生态系统建设是首要重心)**,意味着英伟达会拿出大量的现金放在供应链上**,来保障 Blackwell 和 Rubin 的按时出货。公司一直在执行股份回购和派发股息**,会在年内寻找合适的时机来执行这些回购计划**。 **虽然英伟达本次给出了超预期的业绩及指引,但由于老黄此前已经透露了 AI 业务的指引(Blackwell+Rubin 至 2026 年底累计达到 2000 万颗的出货指引),短期业绩并不重要。相对而言,市场更关注于中长期的展望及管理层的交流。** **从本次交流来看,英伟达管理层也并没有给出激进的展望,主要是相当平淡的陈述。至于毛利率方面的担忧,公司的解释也是,“只要公司能提供高性能的产品,高毛利率也可以持续”。整体上,公司在交流中也没有给出更乐观的期待。** **公司的估值是明显偏低的,这也反映了市场对 ASIC 竞争威胁和毛利率下滑的担忧。另一方面,在业绩持续高增长的情况下,即使面临着市场竞争加剧的风险,公司股价也很难跌破 170 美元(大致对应 2028 财年净利润的 15XPE 左右)。** **一、英伟达财报信息回顾** 1\. 2027 财年 Q1 指引 a. 收入:780 亿美元 (+/- 2%),增长主要由数据中心驱动,指引中不含中国的数据中心算力营收。 b. 毛利率:GAAP 74.9% / Non-GAAP 75.0% (上下浮动 50 个基点)。 c. OPEX: Non-GAAP OPEX 约为 75 亿美元,将在 Non-GAAP 结果中包含基于股票的薪酬费用(其中 SBC 为 19 亿美元)。 d. 供应说明:先进架构的供应紧张将持续,库存和供应承诺已排至 2027 年。 2\. 全年展望: a. 预计**全年 Non-GAAP 毛利率将维持在 75% (mid-70s)**。 b. OPEX:预计全年 Non-GAAP 运营开支将同比实现 42% 左右(low 40s)的增长。 c. 税率: 预计 FY27 全年有效税率(GAAP/Non-GAAP)在 17% - 19% 之间。 **二、财报电话会详细内容** **2.1 高管陈述核心信息** 1\. 数据中心板块 a. 表现:Q4 收入 620 亿美元(+75% YoY),全年 1940 亿美元。 b. 产品组合:需求极度强劲,Blackwell Ultra 正在放量。目前 CSP 和企业已部署约 9GW 的 Blackwell 基础设施。 \- **Rubin 架构:包含 Vera CPU 和 Rubin GPU,采用模块化无电缆设计。已于本周送样,下半年量产**。其推理成本比 Blackwell 再降 10 倍。 \- Hopper & Ampere: 即使是旧款产品在云端依然 “售罄”,反映出极度的算力饥渴。 c. 网络业务 (Networking):单季收入 110 亿美元(3.5x YoY)。**NVLink 72 已成为标配,占本季数据中心收入的 2/3**。 2\. 软件与模型生态 a. “智能体 AI” 时刻已到。与 OpenAI(GPT 5.3 Codex)、Meta 深度合作。 b. 投资 Anthropic 100 亿美元,Anthropic 将基于 Grace Blackwell 与 Vera Rubin 系统进行训练与推理,其 Claude Code Work 平台推动企业 AI 落地。与 Grok 达成非独家授权协议,获得其低延迟推理技术,将借鉴 Mellanox 的整合方式,把 Grok 的创新融入 NVIDIA 架构。 3\. 主权 AI 与地区市场 a. 主权 AI:全年贡献超 300 亿美元。加拿大、法国、英国等国正按 GDP 比例投入 AI 基础设施。 **b 中国市场:虽然 H200 小量获批,但本季未产生收入。**公司对未来出口许可持不确定态度,并警告中国本土竞争对手正在崛起。 4\. 游戏与专业可视化 a. 游戏:37 亿美元(+47% YoY)。Blackwell 需求强劲,但管理层预警 Q1 以后将面临供应短缺压力。 b. 专业可视化:首次突破 10 亿美元大关(13 亿,+159% YoY)。主要受 AI 开发者在工作站运行 LLM 驱动。 5\. 汽车与物理 AI 物理 AI 规模化:FY26 已贡献 60 亿美元 收入。 自动驾驶:奔驰新 CLA 将搭载 Alpamayo 平台。Robotaxi(Waymo, Tesla 等)的规模化将带来量级增长。 **2.2 Q&A 问答** **Q:既然公司对 2027 年的增长有可见度,但市场担心云厂商 CapEx(约 7,000 亿美元)已达高位且现金流受压,您对客户持续增加 CapEx 的信心来自哪里?若 CapEx 增速放缓,英伟达能否在现有预算空间内继续保持增长?** A:逻辑非常简单:**我们正处于 Agentic AI 爆发的拐点**,全球企业对智能体的需求正驱动巨大的算力需求。在当前的 AI 新世界中,**算力即收入**。没有算力就无法生成 Token,而没有 Token 就无法产生收入。因此,**算力投入与收入增长是直接挂钩的**。 目前,无论是代码辅助工具、各类企业级 AI 协作平台(如 Claude 相关应用),还是正在开发智能体系统的 ISV(独立软件供应商),都显示出极高的热情。我们已经达到了一个临界点,即**生成的 Token 是具有生产力且能为客户盈利的**,这反过来保证了云服务商(CSP)的盈利能力。 从底层逻辑来看,计算模式已经发生了质变。过去每年 3,000 亿至 4,000 亿美元的传统软件 CapEx 正全面转向 AI。为了生成 Token,客户必须拥有足够的算力容量,这会直接转化为他们的增长和营收。因此,这种从传统通用计算向加速计算的**结构性转移**,将持续支撑我们的增长。 **Q:英伟达对 Anthropic、OpenAI、CoreWeave 甚至 Intel、Nokia 等公司进行了大量战略投资。请问这些投资在公司战略中扮演什么角色?您如何利用资产负债表作为工具,来强化英伟达在生态系统中的地位并参与其增长?** A:英伟达的核心竞争力本质上就是我们的**生态系统**,这也是我们业务最受青睐的地方。目前,全球几乎每一家初创公司都在英伟达的平台上运行,无论是在云端、本地数据中心,还是边缘侧和机器人系统。数以千计的 AI 原生应用都构建在英伟达之上。在这场全新的计算时代变革中,我们的目标是让所有人、所有应用都承载在英伟达的平台上。 我们拥有极佳的起点,因为几乎一切已经构建在 **CUDA** 之上。随着我们不断扩展 AI 生态——无论是语言 AI、物理 AI、生物科学、机器人还是制造业——我们希望所有这些细分生态都能扎根于英伟达。这为我们提供了绝佳的投资机会,使我们能够横跨整个技术栈进行布局。 目前的生态系统比以往任何时候都要丰富。**英伟达已从单纯的 GPU 计算平台公司,转型为一家 AI 基础设施公司**。我们的计算平台已经覆盖了从底层算力、AI 模型到网络设备、DPU 等各个维度。针对企业级应用、工业制造、科学研究或机器人技术,每一个领域都有其独特的计算栈。因此,我们的投资非常明确且具有战略性,即:**通过资产布局,持续扩大并深化英伟达生态系统的触达深度与广度。** **Q:公司的网络业务在 2026 财年加速增长,去年上半年 Spectrum-X 的年化收入贡献约为 100 亿美元,下半年似乎已升至 110-120 亿美元。随着即将推出的 102T 及 Spectrum-X800 等新平台,Spectrum-X 的收入增速趋势如何?您如何预判今年年底的表现?** A:英伟达现在的定位是 AI 基础设施公司。**我们的计算架构不再是以 “服务器节点” 为单位,而是以 “机架”(Rack)为单位**。在这样的架构中,我们通过 NVLink 将单节点扩展为巨大的机架级计算机(Rack-scale computer),再通过 Spectrum-X 和 InfiniBand 实现跨机架的规模化扩展。可以说,NVLink 的发明极大程度地带动了网络业务的增长,因为现在每个机架都配备了大量交换机节点,单机架内的交换能力非常惊人。 我们目前可能是全球最大的网络公司,尤其是在进入以太网交换市场仅几年后,我们已经在该领域取得了极其领先的地位。**Spectrum-X 的表现堪称巨大成功**。虽然我们依然支持那些追求极低延迟和超大规模扩展的 InfiniBand 忠实客户,但我们也看到越来越多的客户希望基于以太网构建数据中心。为此,我们创造了专为 AI 处理优化的以太网能力,其性能在 Spectrum-X 上得到了充分体现。 对于客户而言,网络性能的差异直接关系到投资回报率。当你建造一个耗资 100 亿或 200 亿美元的 AI 工厂时,网络吞吐量和有效性即使只有 10% 或 20% 的提升,也会直接转化为巨额的收入差异。正是因为我们将 AI 基础设施构建得如此高效,网络业务才得以保持极其强劲的增长势头。 **Q:针对大量上下文窗口的需求以及 Groq 提供的特定解码方案,英伟达未来的路线图是否会更加关注针对特定工作负载或客户的定制化硅片?此外,随着架构演进,公司策略有何变化?** A:关于架构设计,我们的原则是尽可能推迟跨接口的连接。每当你跨越一个 Die-to-Die 接口,都会产生不必要的延迟和功耗。我们并不排斥芯片组(Chiplet/Die)设计,事实上我们已经在使用了,但只在别无选择时才会这样做。例如,在 **Blackwell** 和 **Rubin** 架构中,我们使用了两个达到光刻极限的巨大芯片并进行**贴合**。这种做法极大地减少了竞争对手架构中普遍存在的 “接口损耗”,从而保证了架构的极致效能。外界常说英伟达的优势在于软件,但实际上软件与架构是不可分割的,我们的软件之所以高效,是因为架构本身在每浮点运算功耗上做到了最优。 **针对 Groq 以及低延迟解码器的挑战,我有一些绝佳的想法准备在 GTC 大会上分享**。核心点在于,基于 **CUDA**的基础设施具有无与伦比的通用性。**英伟达所有 GPU 在架构上都是完全兼容的,这意味着我们今天为 Blackwell 优化的模型和软件栈,同样能让 Hopper 甚至 Ampere 架构受益**。这也是为什么 A100 在发布多年后,在实际应用中依然能保持强大生命力和高性能的原因。这种架构兼容性允许我们在软件工程和优化上进行巨额投入,因为我们知道,无论是云端还是本地,全球所有世代的英伟达 GPU 装机量都能从中受益。 这种兼容性为客户带来了极高的创新灵活性和投资保护,最终转化为极佳的**性价比**。至于未来如何应对特定领域的竞争,我们会像当年通过收购 Mellanox 扩展架构版图一样,通过将类似 Groq 这种加速能力整合进英伟达的整体架构中,来持续保持我们的领先地位。 **Q:本季度数据中心收入环比增长超过 100 亿美元,Blackwell 带来了巨大的加速。随着下半年 Vera Rubin 架构开始放量,我们是否应该预期类似 Blackwell 级别的环比增长幅度?** A:关于未来的收入走势,我们目前的重心仍是逐季观察。从全年维度看,**Blackwell 的销售将与 Vera Rubin 的上市同步进行**。Vera Rubin 是一套非常优秀的架构,能够帮助客户快速部署,目前我们已经收到了来自不同客户的大量预订单。虽然现在断言下半年 Vera Rubin 初始爬坡阶段的具体贡献还为时过早,但可以肯定的是,市场需求和兴趣极其强劲,我们预计**几乎每一位客户都会采购 Vera Rubin**。目前的变量主要在于我们的入市速度,以及客户在数据中心部署并运行这些系统的速度。 **Q:考虑到目前 Memory 供应短缺等问题,游戏业务在 2027 财年能否实现同比增长?还是说会面临较大压力?** A:尽管我们非常希望能提供更多供应,但由于显存等因素,**预计未来几个季度的供应将非常吃紧**。如果供应情况在年底前有所改善,游戏业务仍有机会实现同比增长。但目前判定具体的增长前景还太早,一旦有明确进展,我们会及时沟通。 **Q:随着 AI 投资预算越来越多地转向推理工作负载,CUDA 的重要性将如何体现?** A:如果没有 CUDA,我们根本无法处理推理任务。英伟达拥有全球最高效的推理栈 TensorRT-LLM。为了适配 **NVLink**,我们必须在 CUDA 之上不断发明新的并行算法,以分配推理负载,从而充分发挥 NVLink 72 连接带来的海量带宽优势。正是凭借 **NVLink 72** 这一艰难的创新(包括交换机解构、机架系统构建等),我们实现了代际飞跃:**推理的每瓦性能提升了 50 倍,性价比提升了 35 倍。** 在当前阶段,**推理直接等同于收入**。随着智能体的爆发,它们在执行编程等任务时会自主协作并产生指数级增长的 Token。这些系统可能会运行数小时,生成成千上万个 Token,而每一个 Token 都是可以变现的。因此,推理速度越快,客户的创收能力就越强。 对于云服务商(CSP)和超大规模数据中心而言,**“每瓦产生的推理 Token 数” 直接决定了其盈利上限**。核心原因在于,所有数据中心都面临严格的**供电限制**(无论规模是 100MW 还是 1GW)。在电力受限的情况下,架构的每瓦性能越强,能产生的 Token 就越多,转化成的美元收入就越高。 现在,每一家超大规模客户都理解这个逻辑:**资本开支转化为算力,算力转化为收入。** 如果今天不投资算力容量,未来就没有收入增长。选择正确的架构(即拥有最高 “每瓦性能” 的架构)已不仅是战略选择,它直接决定了企业的财报表现。 **Q:公司目前毛利率维持在 75% 左右。鉴于供应能见度已达 2027 自然年,这种高毛利水平是否具有可持续性?在 2027 年之后,是否有关于显存功耗或成本控制方面的创新,能让市场对长期维持这一利润水平保持信心?** A:**维持毛利率的关键,在于我们能否持续为客户提供跨代际的性能飞跃**。如果我们的每瓦性能提升速度能显著超越摩尔定律,且每美元性能的提升远超系统成本的增幅,那么高毛利率就是可以持续的。 目前,全球对 Token 的需求已进入完全的指数级增长阶段。一个显著的迹象是,即便是在云端部署了六年的旧款 GPU 依然被完全占用,且租用价格仍在上涨。这证明了现代软件开发模式对算力的渴求是无止境的。 我们的战略是**每年交付一套完整的 AI 基础设施**。今年我们推出了包含六款新芯片的 Blackwell 架构,而下一代的 **Vera Rubin** 及其后续架构也将保持多芯片联合设计的节奏。通过极致的**软硬件协同设计**,我们每一代产品都能实现每瓦性能和性价比的数倍提升。这种交付核心价值的能力,才是我们维持利润水平最本质的保障。 **Q:针对部分客户正在考虑的 “太空数据中心” 方案,您认为其可行性如何?目前的时间线和经济性是怎样的?随时间推移将如何演变?** A:**目前太空数据中心的经济性确实较差,但未来会逐步改善**。太空环境的运行逻辑与地面截然不同:虽然那里有取之不尽的太阳能,但太阳能电池板体积巨大;虽然太空环境极冷,但由于没有空气流动(真空环境),散热无法依靠对流,只能通过传导至巨大的散热器进行辐射散热。在地面常用的液冷方案在太空也难以实施,因为冷却液太重且容易冻结。 尽管面临物理挑战,但确实存在许多必须在太空完成的计算需求。事实上,**英伟达的 GPU 已经进入太空——Hopper(H100)架构已在轨运行。** 太空 GPU 最核心的应用场景之一是**超高分辨率成像**。通过结合光学技术与 AI,我们可以实时进行不同角度的投影计算、超分辨率重建和降噪处理。如果将数以 PB 计的原始图像数据传回地球处理,带宽和时延成本极高。更高效的做法是在太空直接进行计算处理,利用 AI 筛选出真正有价值的信息,而忽略大部分无效数据。因此, **AI in space** 将会衍生出非常多具有吸引力的应用。 **Q:财报提到超大规模云厂商(Hyperscalers/CSPs)目前占比约 50%,但这部分以外的客户引领了增长。这是否意味着非超大规模客户的增速已超过 CSP?这些客户(如企业、主权 AI、模型厂商)的应用场景与 CSP 有何不同?这种客户结构多元化的趋势是否具有持续性?** A:**目前排名前五的 CSP 确实贡献了约 50% 的总收入,**但剩下的 50% 展现出了极高的多样性。这其中包括 AI 模型开发者、企业级客户、超算中心以及主权 AI 等。这确实是一个增长极快的领域。我们一方面在各大云服务商平台中保持着强劲地位,另一方面,全球范围内客户群的极端多样化正在显现。这种能够服务于全球、全行业各个细分领域的能力,将使我们长期受益。 英伟达的一大优势在于我们拥有建立在 CUDA 之上的生态系统。我们是唯一能够覆盖所有云端、所有计算机制造商设备、以及边缘侧的加速计算平台。我们正在积极培育**电信领域**——未来的无线网络本质上就是一个计算平台,未来的无线电也将由 AI 驱动。为此我们创建了 Aerial 平台。同时,我们也出现在几乎每一台机器人和自动驾驶汽车中。 CUDA 的灵活性使我们能够通过同一套架构解决从语言处理、计算机视觉到生物学、物理学等各类 AI 和计算算法问题。客户群的多元化正是我们最强大的实力之一。如果没有我们自己的生态系统,即使处理器可编程,我们也只能受限于他人的设计周期;但有了 CUDA 生态,我们可以非常自然地扩张。 此外,极其关键的一点是我们的**合作伙伴关系与平台普适性**。**无论是 OpenAI、Anthropic、xAI、Meta,还是 Hugging Face 上 150 万个开源模型,全部都在英伟达的平台上运行。**开源社区的总量可能是仅次于 OpenAI 的全球第二大模型群。英伟达运行一切模型的能力,使我们的平台具有极强的通用性和易用性。对于任何国家或任何企业而言,投资英伟达都是极其安全且能确保未来兼容性的选择,这正是驱动客户多样性的核心动力。 **Q:英伟达正推动 Vera CPU 作为独立方案进入市场。在架构演进中,Vera 扮演了什么角色?这种推动力是来自推理工作负载的激增,还是工作负载的多样化(异构性)?您如何看待 Vera 作为独立 CPU 的发展前景?** A:在最高层面,我们对 CPU 架构的决策与世界其他公司截然不同。**Vera 是目前唯一支持 LPDDR5 的数据中心级 CPU**,其核心设计目标是极高的数据处理能力。我们之所以做出这样的架构决策,是因为我们关注的计算问题(尤其是 AI)本质上都是数据驱动的,其单线程性能与带宽的配比堪称 “破纪录”。 在 AI 的完整流程中——从早期的**数据预处理**,到**预训练**,再到现在的**后训练**——Vera 展现了极强的必要性。目前的 AI 正在学习如何使用工具,而许多工具环境(如某些模拟器或特定逻辑计算)要么纯跑在 CPU 上,要么在 CPU 密集型的加速环境中运行。**Vera 正是为 “后训练” 阶段设计的卓越 CPU。** 当算法加速达到极限时,系统中不可加速部分的瓶颈就会凸显,此时你需要极强、极快的**单线程 CPU**。这就是我们当初开发 Grace 的初衷,而 Vera 的性能表现则在 Grace 的基础上实现了跨越式的提升。我们非常看重 CPU 在 AI 管线中的作用,Vera 将在其中发挥关键的协调和支撑价值。 **Q:公司今年预计产生约 1,000 亿美元的现金流,且采购承诺的压力峰值似乎已过。鉴于尽管业绩出色但股价表现相对平稳,目前的价格看起来是回购的良机。请问公司为何不设定一个更大规模的回购计划,而是维持现状?** A:我们在审视资本回报政策时非常谨慎。目前我们认为最重要的任务之一是**支持眼前庞大的 AI 生态系统**。这涵盖了从供应链端到应用开发端的全方位投入:我们需要确保供应商拥有充足的产能支持,同时也要助力那些在英伟达平台上构建早期 AI 解决方案的开发者。因此,**战略性投资和生态系统建设**仍是我们资本使用的首要重心。当然,我们一直在执行股份回购和派发股息。我们会继续在年内寻找合适的时机来执行这些回购计划。 **Q:您曾预测到 2030 年全球数据中心资本开支将达到 3-4 万亿美元。请问支撑这一宏大愿景的关键驱动力是什么?是智能体、物理 AI,还是其他因素?您现在是否依然对这个数万亿级别的市场空间抱有信心?** A:我对此非常有信心。我们可以从第一性原理来推导这个逻辑:未来的软件开发将完全由**Tokens 驱动**。推理的本质就是生成 Tokens。正如我之前提到的,英伟达通过 NVLink 72 等创新,使每单位能源生成的 Tokens 效率提升了 50 倍。Tokens 生成正处于未来计算和软件的核心。 过去,全球每年在传统计算上的投入约为 3,000-4,000 亿美元。但现在,AI 时代的算力需求比传统模式高出**一千倍**。如果说过去我们是把预先写好的代码或录好的视频 “播放” 出来(类似于 DVD 播放机),那么现在的软件是基于情境、查询意图和实时上下文**实时生成**的。这种 “生成式” 软件所需的计算能力,远超以往任何时代。 目前,我们正处于两个巨大的增长浪潮中: **\- 智能体 AI(Agentic AI)的拐点:** 就在过去的 2-3 个月里,智能体 AI 迎来了爆发式增长。这些智能体能够解决实际问题,比如在英伟达内部,我们的工程师正大规模使用 Claude、OpenAI Codex 或 Cursor 等工具进行协作开发。这些公司(如 Anthropic)的收入在一年内增长了 10 倍,他们现在面临的唯一瓶颈就是**产能极度受限**。这种 “Tokens 需求” 正呈指数级增长。 **\- 物理 AI(Physical AI)的接力:智能体 AI 之后,下一个浪潮是物理 AI**。我们将 AI 引入制造业、机器人和自动驾驶领域。以自动驾驶为例,你需要巨大的超级计算机(AI 工厂)来生成 Token 以训练汽车,同时汽车内部也需要计算机持续生成 Tokens 来运行。 这是一个**全新的工业革命**。在这个新世界里,**算力等于收入**。对于云服务商或企业软件公司而言,投资数据中心直接驱动了他们的营收增长。只要我们相信 “生成 Tokens” 是计算的未来——我坚信这一点,且整个行业也已达成共识——那么全球范围内的产能扩张就远未停止。7,000 亿美元的年投入只是开始,未来的需求远不止于此。 <此处结束> **本文的风险披露与声明:**[**海豚君免责声明及一般披露**](https://support.longbridge.global/topics/misc/dolphin-disclaimer) ### Related Stocks - [VERA.US - Vera Therapeutics](https://longbridge.com/zh-CN/quote/VERA.US.md) - [NVDA.US - 英伟达](https://longbridge.com/zh-CN/quote/NVDA.US.md) - [ASIC.US - Ategrity Specialty Holdings LLC](https://longbridge.com/zh-CN/quote/ASIC.US.md) - [NVDL.US - 2 倍做多英伟达 ETF - GraniteShares](https://longbridge.com/zh-CN/quote/NVDL.US.md) - [07788.HK - 南方两倍做多英伟达](https://longbridge.com/zh-CN/quote/07788.HK.md) - [07388.HK - 南方两倍做空英伟达](https://longbridge.com/zh-CN/quote/07388.HK.md) - [NVDY.US - 英伟达期权收益策略 ETF - YieldMax](https://longbridge.com/zh-CN/quote/NVDY.US.md) - [NVDD.US - 1 倍做空英伟达 ETF - Direxion](https://longbridge.com/zh-CN/quote/NVDD.US.md) - [NVDX.US - 2 倍做多 NVDA ETF - T-Rex](https://longbridge.com/zh-CN/quote/NVDX.US.md) - [NVDQ.US - 2 倍做空 NVDA ETF - T-Rex](https://longbridge.com/zh-CN/quote/NVDQ.US.md) --- > **免责声明**:本文内容仅供参考,不构成任何投资建议。