
英偉達(紀要):GB300 已經出貨,Rubin 按原計劃明年量產
以下為海豚投研整理的 英偉達 2026 財年第二季度的財報電話會紀要,財報解讀請移步《英偉達:宇宙第一股,不夠炸裂就是罪?》
一、$英偉達(NVDA.US) 財報核心信息回顧
1. 整體業績與財務亮點 (Q2)
a. 總營收: 達到創紀錄的 467 億美元,超出預期,所有市場平台均實現環比增長。
b. 數據中心營收: 同比增長 56%。儘管受中國政策影響,H20 產品營收下降 40 億美元,但數據中心業務仍實現環比增長。
c. 毛利率: GAAP 毛利率為 72.4%,非 GAAP 毛利率為 72.7%。若排除 H20 庫存釋放帶來的收益,非 GAAP 毛利率為 72.3%,仍高於預期。
d. 股東回報: 通過股票回購和現金股息向股東返還 100 億美元。董事會新增 600 億美元 的股票回購授權。
e. 庫存: 為支持新產品爬坡,庫存從 110 億美元增至 150 億美元。
二、英偉達財報電話會詳細內容
2.1 高管陳述核心信息
1. 產品與技術進展:
a. Blackwell:需求強勁,營收達到創紀錄水平,環比增長 17%。已成為 AI 推理性能的新標準。GB300 已於 Q2 開始生產出貨,目前正全速生產,周產約 1000 個機架,預計 Q3 將進一步加速。
- 性能:GB300 相比 Hopper,每 token 能效提升 10 倍 到 50 倍。300 萬美元的 GB200 投資可產生 3000 萬美元的 token 收入。使用 NVFP4 格式,GB300 的訓練速度比 H100(FP8)快 7 倍。
- 生態採用:獲得 AWS、Google、Microsoft、OpenAI、Meta、Mistral 等所有主流雲廠商和 AI 公司的廣泛採用。
b. Hopper (H100/H200):H100 和 H200 的出貨量在本季度有所增加,表明市場對加速計算的需求廣泛存在。
c. Rubin:芯片已進入晶圓廠(in fab),平台按計劃將於明年量產,延續了 NVIDIA 每年一代新產品的創新步伐。
d. Networking:營收創下 73 億美元 的紀錄,環比增長 46%,同比增長 98%。
- SpectrumX 以太網: 年化收入已超 100 億美元。
- InfiniBand: 受益於 XDR 技術,收入環比幾乎翻倍。
- NVLink: 帶寬是 PCIe Gen 5 的 14 倍,增長強勁。
2. 各業務部門表現:
a. Data Center:依然是增長核心引擎,受益於 AI 基礎設施建設浪潮。
- 主權 AI 成為重要增長動力,預計今年該領域收入將超 200 億美元,是去年的兩倍多。
- RTX PRO 服務器已全面投產,有望成為數十億美元的產品線,服務於企業級 AI 應用和數字孿生。
b. Gaming:營收創紀錄達 43 億美元,環比增長 14%,同比增長 49%。增長由 RTX 5060 桌面 GPU 和 Blackwell 架構新品驅動。GeForce NOW 雲遊戲服務將於 9 月迎來重大升級,引入 Blackwell 性能。
c. Professional Visualization:營收 6.01 億美元,同比增長 32%,由高端 RTX 工作站 GPU 驅動。
d. Automotive:營收 5.86 億美元,同比增長 69%,主要由自動駕駛方案驅動。新一代 SoC Thor 已開始出貨,性能比 Orin 有數量級提升。
3. 中國市場討論:Q2 來自中國的收入下降至數據中心業務的低個位數百分比。美國政府開始審查 H20 產品對華銷售許可,雖然部分客户已獲批,但 NVIDIA 尚未發貨。美國政府表達了可能收取 15% H20 銷售收入的意向,但尚未立法。
a. 對 Q3 展望的影響:Q3 展望完全不包含 任何對華 H20 銷售收入。如果問題解決,Q3 可能增加 20 億至 50 億美元 的 H20 收入。
b. 英偉達繼續倡導批准 Blackwell 等產品對華銷售,認為這有利於美國經濟和技術領導地位。
4. 第三季度業績展望 (Q3):
a. 總營收:預計為 540 億美元 (±2%),意味着環比增長超過 70 億美元。
b.毛利率:預計非 GAAP 毛利率為 73.5% (±50 個基點),並預計年底達到 75% 左右。
c. 運營費用: 預計全年運營費用同比增長將在 35-40%,高於此前預期,以抓住增長機會。
5. 行業趨勢:管理層認為我們正處在一場由 AI 驅動的工業革命的開端。預計到 2030 年,AI 基礎設施年支出將達到 3 萬億至 4 萬億美元。
a. 增長驅動力:①推理型和代理型 AI(Agentic AI)對算力的巨大需求。②全球範圍的主權 AI 建設。③企業 AI 的廣泛採用。④物理 AI 與機器人技術的興起。
b. 機器人: Thor 計算平台和 Omniverse 數字孿生平台正在被亞馬遜、波士頓動力、Figure AI 等領先企業採用,將成為數據中心需求的長期驅動力。
2.2 Q&A 問答
Q:考慮到從晶圓到機架出貨有 12 個月的週期,並且您確認 Rubin 平台將於明年下半年開始量產,您能否從更高層面闡述一下公司對 2026 年增長的願景?特別是數據中心和網絡這兩塊業務的增長前景。
A:推動我們長期增長的最核心驅動力,是 AI 技術從 “單次問答” 向 “推理型和代理型 AI(Agentic AI)” 的革命性演進。過去的聊天機器人是給一個提示、生成一個答案;而現在,AI 能夠進行研究、思考、制定計劃,甚至使用工具,這個 “長思考” 過程需要比以往多出百倍甚至千倍的計算量。這種演進極大地提升了 AI 的有效性,顯著減少了 “幻覺” 現象,並使其能夠執行實際任務,從而為企業級應用和物理 AI(如機器人、自動駕駛系統)打開了突破口。
我們多年前就開始為此準備,推出了 Blackwell NVL72 這一 “機架即計算機” 的系統,實現了計算節點規模的巨大跨越。雖然技術實現極具挑戰,但結果是性能、能效和成本效益都獲得了數量級的提升。展望未來,從現在到 2030 年,我們將通過 Blackwell、Rubin 及其後續產品,持續擴展並抓住這個價值 3 到 4 萬億美元的 AI 基礎設施建設機遇。過去兩年,僅四大雲服務提供商的資本支出就已翻倍至約 6000 億美元,我們認為這僅僅是這場大規模建設浪潮的開端。AI 技術的進步正使其能夠真正深入並解決各行各業的問題。
Q:關於中國市場那 20 億至 50 億美元的潛在收入,需要滿足什麼條件才能實現?另外,進入第四季度後,您認為中國業務的可持續營收水平會是怎樣的?
A:要實現 H20 產品的出貨,目前有幾個關鍵因素。我們已經收到了首批許可證,客户對 H20 產品有興趣,並且我們也準備好了相應的供應。因此,我們估算本季度有潛力出貨 20 億至 50 億美元。然而,目前情況仍不明朗,因為政府間的地緣政治問題以及客户自身的採購決策仍在動態變化中,所以我們還不確定最終能實現多少。如果後續有更多客户興趣和許可證獲批,我們也有能力生產並出貨更多。
Q:關於競爭格局,您的大客户們都在開發或計劃自己的 ASIC 芯片。有競爭對手也預示明年其 AI 業務將有大幅增長。您認為市場有沒有可能從 NVIDIA 的 GPU 轉向 ASIC?您從客户那裏聽到的反饋是什麼?他們是如何平衡使用商用芯片(如 NVIDIA 產品)和自研 ASIC 的?
A:NVIDIA 提供的產品與 ASIC 有本質區別。雖然許多公司啓動了 ASIC 項目,但很少能真正投產,因為加速計算是一個極其複雜的全棧協同設計問題,遠非簡單地將軟件編譯到處理器上。當今的 AI 工廠是計算機科學史上最極致的難題,模型架構(如從自迴歸到擴散模型)迭代速度極快,而 NVIDIA 的平台能夠靈活適應所有這些變化,並加速從數據處理到最終推理的整個工作流程。
我們的核心優勢在於構建了一個無處不在的、統一的生態系統。從雲端到本地再到機器人,開發者都可以在同一個編程模型(CUDA)下工作,因此全球所有 AI 框架都首選支持 NVIDIA,這使得基於我們平台構建的數據中心擁有最高的效用和最長的生命週期。此外,我們提供的是一個極其複雜的系統級解決方案,遠不止一顆 GPU。以 Blackwell 和 Rubin 平台為例,它集成了定製 CPU、SuperNIC、第五代 NVLink 交換機、Spectrum-X 網絡以及最新的跨數據中心連接技術,這種系統級的複雜性是單一 ASIC 無法比擬的。
最後,我們被所有云廠商選擇的關鍵在於極致的經濟效益。在電力受限的數據中心時代,我們擁有業界最佳的 “每瓦性能”,這直接轉化為客户的營收能力。同時,我們無與倫比的 “每美元性能” 也為客户帶來了豐厚的利潤空間。總而言之,NVIDIA 提供的是一個用於 AI 工廠的、整體性的全棧解決方案,這就是我們成為行業首選的原因。
Q:您最近將 AI 基礎設施的市場規模預期從之前的 1 萬億(主要指計算)大幅上調到 2030 年的 3 至 4 萬億。這是否意味着您預測到 2030 年,僅 “計算” 部分的支出就可能超過 2 萬億美元?您預計 NVIDIA 屆時能佔據多大的市場份額?要實現 3 至 4 萬億這個規模,您認為是否存在像 “電力” 這樣的潛在瓶頸?
A:3 到 4 萬億美元的市場規模是一個合理的預測。我們看到,僅四大雲服務提供商(CSP)的資本支出在過去兩年就已翻倍至每年 6000 億美元,而這僅僅是市場的一部分,還不包括全球其他雲服務商、各國主權 AI 以及大量企業在本地部署的投資。未來五年,隨着 AI 的普及,我們預計全球計算設施的分佈會更貼近 GDP 的分佈格局,而 AI 本身也將加速 GDP 的增長。
在這樣一個典型的 AI 工廠或數據中心中,NVIDIA 扮演着 AI 基礎設施公司的角色。以一個耗資 500 億到 600 億美元、功率達吉瓦(Gigawatt)級別的 AI 工廠為例,NVIDIA 提供的價值約佔其中的 35%。我們提供的遠不止是 GPU 芯片,而是一整套複雜的系統,例如構建一台 Rubin 超級計算機就需要六種不同類型的芯片,並將其擴展到數十萬個計算節點。
關於瓶頸,電力確實是未來的主要限制因素之一。因此,我們的核心任務就是不斷提升 “每瓦性能”(performance per watt)。對於一個固定功率(比如 100 兆瓦)的 AI 工廠來説,其產出(即能生成的 Token 數量)直接決定了其收入。NVIDIA 的技術能從每單位能源中壓榨出最多的計算性能,從而直接提升客户的營收能力。同時,我們極高的 “每美元性能” 也保證了客户能獲得最好的利潤率。因此,解決電力等瓶頸的關鍵就在於持續提升技術效率,這也是我們專注的方向。
Q:您曾提到中國擁有全球一半的 AI 軟件人才,那麼 NVIDIA 在這個市場有多大的增長潛力?未來,讓 Blackwell 這樣的先進架構能夠在中國獲得許可並銷售,對公司的業務發展有多重要?
A:我估計,如果沒有限制,中國市場今年對我們來説本應是一個價值 500 億美元的機會,並且會像全球 AI 市場一樣,以每年 50% 左右的速度增長。中國是全球第二大計算市場,並且擁有全球約一半的 AI 研究人員。許多領先的開源模型,如 DeepSeek、Qwen 和 Kimi,都誕生於中國,這些模型對於推動全球企業、SaaS 公司和機器人領域採用 AI 至關重要。因此,對於美國科技公司而言,能夠服務這個市場非常重要。我們一直在與美國政府溝通,強調讓美國公司參與中國市場競爭的重要性,這有助於美國技術棧成為全球標準,從而贏得 AI 競賽。目前,H20 已被批准銷售給非實體清單上的公司,並且許多許可證也已獲批。鑑於此,我認為未來將 Blackwell 架構引入中國市場是一個真實的可能性,我們會繼續為此努力倡導。
Q: 您最近發佈的 Spectrum-XGS(用於連接多個 AI 集羣)的市場機會有多大?我們是否可以將其理解為數據中心之間互聯(DCI)的新層次? 在您年收入已超過 100 億美元的以太網產品組合中,Spectrum-XGS 未來能貢獻多大的業務規模?
A:我們現在提供三種不同層級的網絡技術:用於 “縱向擴展”(Scale-Up)的 NVLink、用於 “橫向擴展”(Scale-Out)的 InfiniBand 和 Spectrum-X 以太網,以及最新發布的用於 “跨集羣擴展”(Scale-Across)的 Spectrum-XGS。
1. Scale-Up: 核心技術是 NVLink,它的作用是構建儘可能大的虛擬 GPU 計算節點。Blackwell 平台革命性的 NVLink 72 技術極大地增強了內存帶寬,這對於需要長時間思考的 Agentic AI 和推理系統至關重要,是其性能實現巨大代際飛躍的關鍵。
2. Scale-Out: 我們提供兩種選擇。首先是 InfiniBand,它擁有無與倫比的低延遲和低抖動,是超級計算和頂尖模型開發者的明確首選,能帶來最佳的 AI 工廠性能。其次是 Spectrum-X 以太網,它並非普通以太網,而是我們專為 AI 優化的技術,通過擁塞控制等設計,使其性能遠超其他以太網,非常接近 InfiniBand,適合希望統一使用以太網技術棧的數據中心。
3. Scale-Across: 這就是 Spectrum-XGS 的定位,它是一種吉瓦(Giga-scale)級別的技術,用於將多個獨立的 AI 工廠或數據中心連接成一個巨大的 “超級工廠” 系統。
對於 AI 工廠而言,選擇正確的網絡技術至關重要。一個高效的網絡能將工廠的整體計算吞吐效率從 65% 提升到 85% 甚至 90%。對於一個耗資 500 億美元的吉瓦級 AI 工廠來説,效率提升幾十個百分點就意味着創造了百億甚至兩百億美元的額外價值。這種巨大的回報使得對先進網絡的投資幾乎可以説是 “免費” 的。這正是我們五年半前收購 Mellanox 並持續大力投入網絡技術的原因。我們的 Spectrum-X 以太網在推出僅一年半後就已成長為一項規模可觀的業務,取得了巨大成功。我們相信,這三層網絡技術都將取得出色的發展。
Q:我們應該如何理解這 70 億美元的增量在 Blackwell、Hopper 和 網絡 Networking 這三個部分之間的分配?您認為 Hopper 的強勢表現會持續下去嗎?請問我們該如何拆解這 70 億美元的增量?
A:從第二季度到第三季度的增長來看,Blackwell 將繼續是我們數據中心業務增長的絕對主力,這一點是明確的。您應該預期 Blackwell 將是驅動我們業績增長的核心引擎。但請記住,Blackwell 的強勁銷售會同時拉動我們的計算(Compute)和網絡(Networking)兩大塊業務,因為我們賣出的是包含剛才提到的 NVLink 技術的完整系統。
至於 Hopper,我們確實仍在銷售 H100 和 H200,尤其是在 HGX 系統形態中。不過,Blackwell 的營收貢獻份額會是最大的。雖然我們無法提供更具體的季度內產品線拆分數據,但核心信息是:Blackwell 平台將是增長的主要驅動力。
Q:您如何看待未來從 Blackwell 到 Rubin 的產品過渡策略?與 Blackwell 相比,Rubin 平台能為客户帶來哪些新的、增量的功能和價值?從性能提升的角度看,您認為 Rubin 相比於 Blackwell 的進步,是比(Blackwell 對 Hopper 的提升)更大、更小,還是一次相似幅度的飛躍?
A:我們已經進入了每年發佈一代新架構的年度週期。我們之所以能這樣做,並建議客户也按年度節奏來規劃和建設數據中心,根本原因在於這能最大化地為客户降低成本和創造收入。
關鍵指標是 “每瓦性能”(Perf per Watt),即消耗單位能源所能生成的 Token 數量。Blackwell 在推理系統上的每瓦性能已經比 Hopper 高出一個數量級。由於所有數據中心都受限於能源供應,這意味着使用 Blackwell 可以在同等能耗下,比以往任何架構創造更多的收入,同時其卓越的 “每美元性能”(Perf per Dollar)也能幫助客户提升毛利率。只要我們能不斷提出偉大的新構想,我們就會通過發佈新架構來持續提升客户的創收能力、AI 能力和利潤空間。
Rubin 平台同樣承載了大量全新的、突破性的想法。不過,我現在還不能透露具體細節。
當前以及未來一年的重心,是全力推進 Grace Blackwell 和 Blackwell Ultra 的產能爬坡和數據中心部署。今年顯然會是創紀錄的一年,我預計明年也將再創歷史新高。我們將繼續朝着兩個目標前進:一方面,在技術上向通用人工智能(ASI)邁進,不斷提升 AI 性能;另一方面,在商業上持續增強我們超大規模數據中心客户的營收能力。
Q:您説 AI 市場的年複合增長率(CAGR)能達到 50%。考慮到您對明年的業務可見度,這個 50% 的增長率是否可以看作是您明年數據中心業務增長的一個合理參考目標?
A:我們對未來的增長充滿信心。一方面,我們從大型客户那裏獲得了非常可觀的明年業務預測,同時還在不斷贏得新業務,新的 AI 初創公司也層出不窮。另一方面,市場需求極其旺盛,已經到了 “一切都已售罄” 的程度——H100、H200 都已賣光,初創公司和大型雲服務商都在爭搶算力,這充分證明了需求的真實與強勁。我們認為,自己仍處於 AI 爆發的早期階段。
這種增長的背後有幾個關鍵動力。首先,AI 原生初創公司正經歷爆發式增長,其融資額和營收都呈十倍速發展。其次,開源模型的普及正在推動大型企業、SaaS 公司和工業巨頭全面加入 AI 革命,這開闢了全新的增長來源。從長遠看,大型雲服務商的年度資本支出(CapEx)已高達約 6000 億美元,我們在這個巨大的市場中佔據重要份額是完全合理的。因此,我們預見到未來幾年乃至到 2030 年,都將是快速且顯著的增長期。
展望未來,Blackwell 作為世界期待的下一代 AI 平台,正在全速增產以滿足其非凡的需求。而我們的再下一代平台 Rubin,構成其核心的 6 款新芯片均已投片生產。我們已經進入了年度迭代的節奏,Blackwell 和 Rubin 平台將支撐起全球在 2030 年前完成價值 3 到 4 萬億美元的 AI 工廠建設。客户正在建設的 AI 工廠規模也在指數級擴大:從數千 GPU 的幾十兆瓦設施,到數十萬 GPU 的百兆瓦設施,很快我們將邁向數百萬 GPU、跨地域的 “吉瓦級” 超級 AI 工廠。
需求本身也在進化。簡單的聊天機器人正升級為能夠研究、規劃和使用工具的 “智能體 AI”(Agentic AI),這使計算需求增長了幾個數量級,並開啓了廣闊的企業級市場。更令人興奮的是,物理 AI 的時代已經到來,它將開啓機器人和工業自動化的全新篇章,未來每個工業公司都需要一個實體工廠和一個 AI 工廠。
總而言之,我們正處在一場新工業革命的開端,前方的機遇是巨大的,而 AI 的競賽已經全面展開。
<此處結束>
本文的風險披露與聲明:海豚投研免責聲明及一般披露
