Dolphin Research
2026.03.18 04:38

英偉達(分析師小會):IT 行業將成為 Token 分銷商,50% 的現金流用於股東回報

以下為海豚君整理的英偉達 GTC2026 分析師小會的紀要,GTC 大會解讀請移步《英偉達 GTC:AI 界春晚,滿心期待、掃興而歸?

一、$英偉達(NVDA.US) 小會核心信息回顧

1. 需求展望Blackwell+Rubin 至 2027 年底的確定性需求(採購訂單和堅定需求)超 1 萬億美元,且不包含 Rubin Ultra、Feyn、獨立 Vera CPU、Groq 等新產品。預期在此基礎上持續新增訂單。

2. 股東回報公司計劃將 50% 的自由現金流通過 “股票回購 + 股息的方式” 返還給股東,該比例暫未考慮 1 萬億美元以上 Blackwell+Rubin 需求之後的 “增量部分”。若增量部分落地,公司將有額外的空間提升股東回報的比例或規模。2026 年上半年公司需先完成既有投資承諾,之後會加大股票回購的推進力度;向股東返還資本仍是公司後續的核心工作之一。

3. 毛利率邏輯:每代產品持續交付 token/秒/瓦的數倍提升,客户寧願以更高價格購買新一代產品也不願以低價購買上一代,這是毛利率可持續的核心支撐。

4. 現金用途優先級第一是供應鏈投資(預付款、產能建設)以支撐萬億美元級出貨;第二是生態系統投資第三是股東回報

二、英偉達分析師小會詳細內容

2.1 高管陳述核心信息

1. AI 三大拐點與 Agentic 系統

a. AI 三大拐點:生成式 AI → 推理能力 → Agentic 系統(當前所處階段)

b. Agentic 系統具備自主執行任務能力,寫代碼是最流行應用之一

c. 工程師入職現在除了拿到筆記本電腦,還會獲得 token 預算——token 預算已成為真實的企業支出項

d. 計算機從工具變為"製造設備",類似 ASML 光刻機,產出 token 並銷售

2. Open Claw 與軟件生態

a. Open Claw 是開源 Agent 框架,150 萬人下載並用一行代碼構建自己的 Agent

b. 英偉達將其打造為企業級版本 Nemo Claw

c. Open Claw 是整個 Agentic 計算架構的操作系統,每家公司都需要 Open Claw 策略

d. 全球 2 萬億美元 IT 軟件行業將集成 AI 模型(OpenAI、Anthropic、開源模型)並轉售 token,市場規模可能擴展至 8 萬億美元

3. 需求與客户結構

a. 2025 年新增 Anthropic、Meta SL 為平台客户,開源模型成為第二大 token 生成來源

b. 市場格局:OpenAI 的模型規模是最大的、各類開源模型的規模是第二位、Anthropic 排在第三、其餘各類模型就依次往後排(後續的長尾模型陣營,其實體量也相當龐大)

c. 收入結構:約 60% 來自超大規模客户,約 40% 來自區域雲、工業、企業本地部署(Dell、聯想、HP 等)

d. 40% 的非超大規模客户業務完全依賴英偉達全棧能力,僅憑芯片無法觸達

4. Vera Rubin vs Grace Blackwell 的 TAM 擴展

a. Vera Rubin 相比 Grace Blackwell 新增約 50%的市場機會

b. 新增來源:Groq 加速器(增加約 25% 計算支出)、存儲(第二大計算支出)、CPU 工具使用(約 5%)

c. 全部統一為單一機架架構,100% 液冷,完全優化

d. Grace Blackwell 時代聚焦推理,Vera Rubin 時代解決完整 Agentic 系統需求

5. 公司組織與年度產品節奏

a. Jensen 直接管理團隊 60 人,組織架構完全對齊產品架構

b. 7 款芯片統一 tape-out 時間表,全部軟件棧自研(存儲、網絡、Dynamo 工廠操作系統等)

c. CUDA 兼容性確保新系統 Day 1 即可運行上一代軟件

d. 擁有完整軟件棧是實現年度產品迭代的核心前提——外包任何環節都無法實現

2.2 Q&A 問答

Q:超大規模客户的 API 和雲收入何時能體現出與資本支出匹配的上行空間?

A:我希望那些公司是上市公司,那樣你就能看到我看到的東西。歷史上沒有哪家初創公司以每週增加 10-20 億美元收入的速度在增長,但這正是它們現在的情況。整個 IT 軟件行業 2 萬億美元規模不會被顛覆,而是會被變革。每家 IT 公司都將整合 OpenAI、Anthropic 和開源模型,通過 Open Claw 構建 Agent。100% 的全球 IT 行業將成為 OpenAI 和 Anthropic 的 token 分銷商。未來這個行業可能從 2 萬億美元的軟件許可擴展到 8 萬億美元,同時轉售大量 token。所以結論是:提高你對 OpenAI 和 Anthropic 的收入預期

Q:Agentic AI 對 Vera Rubin 機架架構的需求和價格影響如何?

A:我們將所有組件統一到單一機架架構——相同的供電、相同的冷卻系統、100% 液冷、完全優化。要運行 Agentic 系統,你需要在 GPU 計算支出基礎上增加約 25% 來部署 Groq。Groq 使用約 8 倍數量的芯片,整體成本約等於 NVLink 72 機架。(25% 的規模翻倍,最終帶來的是算力總支出只增加 25%)

這不在 1 萬億美元之內——如果 100% 的 1 萬億美元工作負載都加上 Groq,就變成 1.25 萬億美元。加上存儲(第二大計算支出)和 CPU(約 5%),Vera Rubin 相比 Grace Blackwell 總共增加約 50% 的市場機會。Grace Blackwell 時代我們在解決推理問題,Vera Rubin 時代我們在解決完整的 Agentic 系統需求。

Q:英偉達產生的大量現金將如何戰略性使用?

A:優先級第一是支持增長——供應鏈方面我們與合作伙伴長期合作,幫助他們規劃業務,有時預付甚至資助他們的產能擴張,因為我們要為 1 萬億美元以上的出貨做準備。第二是投資生態系統,CUDA 開發者和 AI 原生企業的成長非常重要。之後仍然會產生大量自由現金流。從當前來看,股票回購加股息合計約佔自由現金流的 50%。上半年需要先完成一些已有投資承諾,之後"增量"部分還會帶來額外的回購空間。

Q:如何回應外界關於英偉達攫取過多生態系統價值、毛利率不可持續的質疑?

A:幾乎所有我昨天講的內容都是全新視角。大家需要理解token 經濟學。如果我們每年持續交付 token/秒/瓦的數倍提升,如果我們通過引入新的 token 細分市場持續提升客户的 ASP,客户會非常樂意繼續與我們合作。

核心邏輯是:你不是在轉賣電腦,你是在用電腦生產 token。電腦貴但技術卓越,能以極高效率生產低成本 token——你同時擁有最貴的電腦和最低成本的 token 產出。這就是我們的工作,也是我們毛利率的來源。就像台積電的晶圓最貴但價值最好,ASML 的設備最貴但物有所值。問題很簡單:你想賺更多錢,還是想買最便宜的設備?任何人説"我的芯片便宜 30%"——把它放到整個工廠的經濟效益裏看,你就會發現那個人不理解 AI。

Q:你預計 2027 年會面臨產能短缺,能否具體説明瓶頸在哪裏?客户是否在控制採購節奏等待下一代?

A:我告訴 Satya"買你今年需要的,因為明年會有更好的"——這句話就是我説的。關於供應,世界在某種程度上總是受限的。我們在多個維度、多個供應商之間協調,確保系統和諧——不多不少。如果我告訴你某個具體品類受限,我知道你們會怎麼做(暗示分析師會過度解讀)。系統是和諧的:不多不少的電力、施工人員、線纜、光學器件。我們每天都在優化。需求在加速增長,而且我們有能力支撐這個供應。

Q:銅纜與 CPO(共封裝光學)的過渡路徑是怎樣的?NVL 576 和 NVL 1152 如何並行?

A:我們應該儘可能長時間使用銅纜——銅纜的極限大約在 1 米左右。你看到我們從 NVLink 72 擴展到 Rubin Ultra 的 NVLink 144,背板設計支持這種擴展。如果能從 144 擴展到 288,我們會很樂意,因為銅纜易製造、更可靠、人類用了很長時間。

目前 100% 銅纜。下一代 Ultra 將有兩個選項:純銅或銅 +CPO。再下一代 1152 規模時將全部 CPO,因為銅纜有物理距離極限。但即使 NVLink 走向 CPO,以太網擴展、存儲等仍將使用銅纜。由於我們有 5 種不同的機架且總需求持續增長,銅纜連接器的總消耗量將繼續增長。

Q:不同 token 細分市場的增長前景如何?token 成本下降趨勢是否會放緩?

A:token 成本每年都會持續下降——Grace Blackwell 到 Rubin 再到 Rubin Ultra,每一代都會下降。同時 token 的智能程度持續提升,吞吐量持續增加。關鍵是你必須用"token/秒/瓦"來衡量——你的數據中心大小固定,必須歸一化比較。

至於不同細分市場的分佈取決於品牌和目標客户。如果你的業務是搜索,大部分在免費層;如果是 Agent 代碼,在高端層;如果目標客户平均薪資 5-7 萬美元,token 定價就在中間層。目前所有細分市場都在指數級增長,因為我們還處於起步階段。

Q:State space 模型和混合架構對英偉達意味着什麼?Agentic AI 是否需要新的 AI 模型架構?

A:我們運行所有 AI 模型——全 Transformer、離散 token、連續擴散、state space、混合架構——我們的架構之美在於通吃。英偉達之所以被廣泛使用,是因為無論研究科學家明天發明什麼創新架構,我保證它在 CUDA 上運行良好,因為我們擁有所有必要的計算元素。

Nemotron-3I 採用混合架構是為了處理超長上下文。未來你將與 AI 進行終身對話,如何處理相關的對話記憶是研究前沿。混合架構允許處理超長上下文而不受計算量平方爆炸的影響。我們將其開源,希望所有人使用,目的是推進 AI 而非與任何人競爭。

Q:AI 下游市場的集中度如何?超大規模客户 + 前沿實驗室是否佔了 80% 以上的實際使用?

A:我把它分成三個維度。第一維度是終端模型:OpenAI 最大,開源模型總量第二,Anthropic 第三,之後長尾也相當長。加上物理 AI 模型(機器人視覺語言動作模型等),模型類型很多。

第二維度是計算在哪裏進行:有些公司想自研芯片(我們需要競爭),有些託管英偉達客户(CUDA 只在英偉達上運行),有些是 NCP 基礎設施客户(需要完整系統),有些通過 Dell/HP/聯想部署本地,有些在邊緣(無線網絡、機器人、自動駕駛、衞星)。

壓縮後就是 60%/40% 的結構。40% 的部分 100% 依賴英偉達全棧——他們不買芯片,買平台,需要機密計算,需要全球部署。60% 中一部分我們要競爭,一部分是我們為雲服務商帶去的客户。OCI 不會自研芯片,CoreWeave 也不會——在這些領域我們的地位非常穩固。

Q:訓練計算需求的未來趨勢?訓練 vs 推理的算力佔比如何演進?

A:訓練從預訓練發展到後訓練。預訓練是記憶和泛化——AI 的"高中階段"。後訓練教各種技能:強化學習、可執行驗證、工具使用、結構化 API 等。後訓練的計算強度我估計大約是預訓練的百萬倍——因為技能太多,rollout 非常長,模型必須越來越大

未來幾代,預訓練將從主要使用互聯網數據轉向主要使用合成數據,同時加入多模態和物理世界運動。推理和訓練的邊界將越來越模糊——就像人類何時在學習、何時在應用智慧,其實是連續的。

我的希望是99% 的全球計算最終用於推理,因為推理是將 token 轉化為經濟價值的地方——沒有人為學習付費,人們為 token 的產出付費。這就是英偉達去年全力投入推理的原因。兩年前市場説"英偉達擅長訓練,推理很簡單任何公司都能做"——推理極其困難,看看那張圖表就知道了。推理是思考、工作、執行任務,怎麼可能容易?

Q:1 萬億美元以上的需求展望是否包含 Rubin Ultra?

A:絕對不包含。這只是 Blackwell + Rubin。不包含 Rubin Ultra、Feyn 或任何其他後續產品。

本文的風險披露與聲明:海豚君免責聲明及一般披露