Dolphin Research
2026.03.17 07:33

英偉達 GTC:AI 界春晚,滿心期待、掃興而歸?

portai
我是 LongbridgeAI,我可以總結文章信息。

2026 年 3 月 16 日,英偉達創始人兼 CEO 黃仁勳在 GTC 2026 大會上發表主題演講,核心議題涵蓋 CUDA 平台 20 週年、推理拐點與算力需求爆發、Vera Rubin 系統架構、Groq 集成、OpenClaw 代理革命及物理 AI 與機器人。

一、GTC2026 核心要點

1)數據中心營收展望2025-2027 年$英偉達(NVDA.US) 數據中心累計收入達到 1 萬億美元(去年 GTC 大會給的是 2025-2026 年累計收入 5000 億美元),符合預期。市場主流預期本身已經提升至 1 萬億美元以上,更期待的是公司能給出明確訂單等方面的信息。

2)性能和成本:在 tokens/watt(吞吐量)和 token 速度(智能度)兩個維度上,英偉達均為全球最高性能;英偉達的 token 成本全球最低。

3)數據中心成為"token 工廠":每個工廠受限於功率(如 1GW),需要管理 token 生產的吞吐量和速度。

token 將像大宗商品一樣細分層級:免費層(高吞吐、低速度)->$3/百萬 token 層->$6/百萬 token 層->$45/百萬 token 層->$150/百萬 token 層(頂級低延遲、高帶寬算力)

以 1GW 數據中心為例,每 25% 功率分配一個層級:Grace Blackwell 可比 Hopper 生成 5 倍收入,Vera Rubin 可再提升 5 倍

4)Vera Rubin:在此前 6 類芯片基礎上,新增了 Groq 3 LPU。

①Vera Rubin:100% 液冷(45°C 熱水冷卻),所有線纜取消,安裝時間從兩天縮短至兩小時;

②CPO(共封裝光學)Spectrum-X 交換機:已全面量產,與 TSMC 共同研發;

③CPU:世界上唯一使用 LPDDR5 的數據中心 CPU,獨立售賣,將成為數十億美元級業務;

Vera CPU Tray 用於 Agentic workload, 單個 Vera Compute Tray 集成了 8 顆 Vera 處理器, 每個處理器 88 核, 同時支持 8 通道的 LPDDR5x 內存, 單個 socket 支持 1.2TB/s 的內存帶寬。CPU Tray 上集成了 2 塊 BF4-DPU。

④Vera Rubin:已在 Microsoft Azure 上線運行(第一個 rack)。英偉達供應鏈已可每週生產數千套系統,每月數 GW 級 AI 工廠產能

⑤Rubin Ultra:Rubin 是橫向滑入機櫃,Rubin Ultra 要垂直放入新機架 Kyber,其中 144 GPU 在一個 NVLink 域內,中板後方用 NVLink 交換機替代銅纜。

5)Groq 3 LPU(新增芯片):Groq 和 HBM 並用,符合預期

技術來自於收購的 Groq 團隊,Groq LP30 由三星製造,預計三季度發貨。

單顆 Groq 芯片 500MB SRAM vs 單顆 Rubin 芯片 288GB,Groq 單獨無法承載主流大模型的參數和 KV Cache

解決方案:推出了一個 Dynamo 軟件,把推理步驟分解出來:

1. 預填充階段:也稱 Prefill,也是模型批量處理用户輸入的 Prompt 的階段,主要是以計算為主,因此在 Vera Rubin 上完成;

2. 解碼的注意力環節:主要是計算當前產生的 token 與歷史 tokens(KV Cache,對話存儲的記憶)的關係,是計算和存儲並重的工作性質,也是在 Vera Rubin 上完成,頻繁讀取 Rubin 上的 HBM 內存單元。

3. 解碼的前饋網絡(FNN):在 Attention 環節確定上下文關係後,前饋網絡負責基於前 Token 來輸出下一個 Token 的概率分佈,並選出下一 Token,即 “吐字”。

這個環節的每一層都要讀取模型的權重參數,讀一次只能處理一個 Token,原本參數放在 HBM 中,計算單元一直在等着數據從 HBM 搬運過來,這也是 “內存牆” 的真正堵點。

把解碼分成用軟件拆出兩個階段後,等於把模型在工作的 “上下文記憶” 仍然保留在 HBM 上,但把大部分模型參數轉移到了 Groq 的 SRAM 上,芯片上內嵌的存儲層 SRAM 能夠以極低的延遲讀取這些權重參數,從而解決推理吐字慢的問題。

Rubin 和 Groq 之間用以太網緊密耦合,RDMA 特殊連接模式可以讓兩芯片之間的交互延遲降低約一半。

6)Feynman:全新 GPU + LP40(LPU)+ Rosa CPU(以 Rosalind 命名)+ BlueField-5 + CX10。

Kyber 銅纜 scale-up + Kyber CPO scale-up(首次同時支持銅纜和 CPO scale-up)。這意味即使在 Feynman 階段,也將同時支持銅和 CPO 的混合方式。

雖然英偉達長期看好 CPO 方案,但客户方面傾向於將銅纜方案用到極致後再切換 CPO(部署/維護更簡單)。

7)其他信息:

①太空數據中心:針對能源不足問題, 英偉達宣佈 Vera Rubin Space-1,計劃將數據中心部署到太空(需解決輻射散熱問題,太空中無傳導和對流,僅有輻射);

②OpenClaw:每家 SaaS 公司將變成 GaaS 公司(Agent-as-a-Service)。

代理系統在企業網絡中可以訪問敏感信息、執行代碼、對外通信——這需要企業級安全。英偉達與 OpenClaw 創始人 Peter Steinberger 合作推出NemoClaw(OpenClaw 的企業安全參考設計),集成 OpenShell 技術,包含網絡護欄(network guardrail)和隱私路由器(privacy router),可連接各 SaaS 公司的策略引擎;

③物理 AI 與機器人:自動駕駛方面, 比亞迪/吉利/現代/日產等廠家加入 robotaxi-ready, 並與 Uber 合作。然後機器人方面 KUKA/ABB 等廠商, 還有很多機器人/無人機平台等。

總體來説,這次發佈會,除了澄清了銅纜和 CPO 會並用,主要就是新加入了一個服務器中新加入了 Groq 的 LPU 選項。這個在 Groq 被買後,市場已有充分預期;甚至指引的三年一萬億美金收入,市場實際其實也已經超過這個數字了。

整體上從英偉達的產品迭代可以看到:最近幾年的迭代重心不再芯片微架構的創新,從 Hopper 到 Blackwell 解決主要是組合和連接的問題,英偉達主要是完成了賣芯片到賣系統和服務的切換。

而從 Blackwell 到 Rubin,無論是新加入的 DPU(NAND 芯片),還是這次新買來後緊急放進來的 LPU(SRAM),主要完成的是 AI 進入推理和 Agent 時代,內存牆的問題。

二、英偉達的近況:大會指引平淡,需要 “成長性新故事”

英偉達的股價表現,在近半年的時間內基本上一直都在 170-200 美元的區間內震盪。即便下游大廠增加資本開支、公司業績持續超預期,公司股價也沒能實現向上突破,主要是市場有以下幾方面擔心:

a)大廠資本開支持續性:Meta、谷歌等廠商都明確增加了 2026 年的資本開支,四大核心雲廠商在 2026 年的資本開支有望達到 6600 億美元以上,同比增長 60%。但值得注意的是,大廠資本開支在收入中的佔比處於達到了相對較高的位置

以 Meta 為例,公司預期 2026 年資本開支將達到 1150-1350 億美元,資本開支/年度收入將達到 50% 以上,進一步提升的空間相對有限。即使各家大廠增加了 2026 年的投入展望,但依然難以打消市場對後續資本開支增長持續性的擔心。

b)AI 芯片市場份額:當前英偉達在 AI 芯片市場的份額維持在 75% 以上,較高的價格和 “近乎壟斷” 的市場結構,促使下游雲廠商尋求 “替代方案”。

在谷歌之外,博通 AVGO 已經明確收穫了 Anthropic、Open AI 等的大額訂單,多個客户也都開啓了自研方案。即便英偉達後續還有 Rubin 新品,但市場普遍預期公司在 AI 芯片市場的份額將逐步下滑。

3)產品競爭力:當前谷歌TPUv7 在 FP8 等領域的表現大致已經接近於英偉達的 B200(2024 年四季度量產),谷歌 TPU 大致落後於英偉達一年左右。

英偉達在 Blackwell 系列中引入了 NVFP4 格式,能使推理性能在 FP8 的基礎上再翻一倍。但其實 FP8 滿足了當前市場大部分的需求,TPUv7 已經是一個 “替代選項”。
為了對抗行業競爭,英偉達正在通過戰略投資和算力擴容,來鎖死供應鏈上下游,比如説,以芯片部署為前提的戰略投資 Open AI(300 億美元)和 Anthropic(100 億美元)、為 Meta 旗下全新 AI 實驗室 MSL 提供數百萬塊 GPU 的算力支持,其中部分協議有一定的降價鎖定客户需求的意味。

結合上述的市場擔心,公司估值也處於相對較低的位置。海豚君按照截止 25-27 自然年數據中心收入 1.15 萬億(高於公司目前指引的 1 萬億),英偉達當前市值(4.4 萬億美元),對應 2028 財年(接近 2027 自然年)淨利潤約為 13 倍 PE 左右(假定營收兩年複合增速 64%,毛利率 72%,税率 18%)。

英偉達上季度交出了超預期的財報,但公司股價並未迎來上漲。這主要是因為 2027 年收入預期已經全部打進去後,市場擔心下游雲廠商在資本開支強度拉到 50% 以上的之後,進一步拉高資本開支的空間非常有限。

理論上,處於雲廠商二級導上的英偉達,即使客户資本開支高位維持,英偉達來自雲客户的收入會就變成零增長,市場不敢給 2027 年之後的英偉達高估值,導致英偉達當前只有 27 年利潤 13X 的 PE,建籌的興趣也不高。

結合本次 GTC 大會的內容來看,老黃給出的 “至 2027 年數據中心累計收入達到 1 萬億美元以上”,其實市場預期早已拉到比這個數還更高一些。

會議中更多的時間,給到了英偉達的產品推銷和路線規劃,對產業鏈公司的影響更多(CPO 和銅仍將混合使用、LPU 與 HBM 分擔不同的工作),對公司自身的增量信息並不多。

未來英偉達公司的 PE 再次提升,海豚君認為除了 AI 應用上能夠更大規模、更快速度落地之後,還需要新的 “成長曲線” 來拉動,比如 “Physic AI”、“太空算力” 等。

本次 GTC 大會詳細內容,歡迎關注海豚君後續的詳細內容《英偉達(GTC 紀要):LPU 解構 AI 推理,算力工廠向太空進發

本文的風險披露與聲明:海豚君免責聲明及一般披露

本文版權歸屬原作者/機構所有。

當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。