Dolphin Research
2025.11.20 03:14

英偉達(紀要):明年目標毛利率 75%,Open AI 的合作並不盲目

以下為海豚君整理的英偉達 2026 財年第三季度的財報電話會紀要,財報解讀請移步《比非農還重要!英偉達能再拯救美股嗎?

相比於財報信息,更為重要的是英偉達的本次電話會傳遞的信息:

①數據中心收入: GB300 銷量超越 GB200,貢獻 Blackwell 總收入約三分之二。Hopper 收入約 20 億美元,其中 H20 約 5000 萬美元;

對於指引方面:公司在下季度收入指引中,依然未將中國市場的 AI GPU 的收入納入預期中。在 KSA、Anthropic 等新增需求帶動下,公司最終可能會超過此前指引(Blackwell+Rubin 至 2026 年底的 5000 億美元收入

②單 GW 中英偉達的價值量:Hopper 大約在 200-250 億美元/GW,Blackwell 世代(尤其是 Grace Blackwell)約為 300 億美元左右/GW,Rubin 會更高

③目標毛利率:儘管成本上升,2027 財年(即 2026 年)毛利率的目標維持在 75% 左右;

④OpenA 的合作:核心是幫助其建設並部署至少 10 千兆瓦規模的 AI 數據中心,還有機會對該公司進行投資。目前公司正推進達成一份最終協議。

公司通過 OpenAI 的雲服務合作伙伴——微軟 Azure(Microsoft Azure)、甲骨文雲基礎設施(OCI)及 CoreWeave—— 為其提供服務。在可預見的未來,公司將繼續保持這一合作模式。

⑤Anthropic 的合作:首次採用英偉達技術,將針對 CUDA 技術優化 Anthropic 的模型,從而實現最佳的性能、效率與總擁有成本(TCO)。初始算力承諾包含 1GW 的算力容量,將基於 Grace Blackwell 與 Vera Rubin 系統實現。

⑥對 AI 泡沫論的回應:英偉達與其他任何加速器廠商都不同,公司在 AI 的每個階段都表現出色,無論是預訓練、訓練後處理還是推理。而且,憑藉 20 年來在 CUDA X 加速庫上的投入,公司在科學與工程仿真、計算機圖形學、結構化數據處理以及傳統機器學習等領域,同樣具備出眾的實力

⑦對 ASIC 競爭的回應:這不僅僅是隨意將一顆 ASIC 放入數據中心,而是關乎需求從何而來、多樣性從何而來、韌性從何而來。公司架構的多功能性、能力的多樣性,以及龐大的生態系統,帶來了極其良好的需求。這五個方面——加速轉型的每個階段、AI 的每個階段、每一種模型、從雲到本地部署的覆蓋,最終都導向了實實在在的需求。

綜合以上信息,英偉達對市場擔心的方面都做出相應的回應:

a)毛利率目標:明年給出 2027 財年毛利率在 75% 左右,穩住市場的信心(尤其是市場擔心明年下半年毛利率滑坡的風險);

b)ASIC 市場競爭:公司堅信自身的產品力和覆蓋面,能提供比 ASIC 更多的價值和能力;

c)Open AI 的合作:公司與 Open AI 的合作並不盲目,是通過微軟、甲骨文、Coreweave 等合作的方式,是一定的條件和約束的;

d)在 KSA、Anthropic 等新增需求帶動下,公司認為 AI 收入實際上可能會超過此前的指引(Blackwell+Rubin 至 2026 年底的 5000 億美元收入)。

整體來看,英偉達給出超預期財報之後,管理層還對市場上擔心的方面進行了回應。尤其是毛利率的明確指引和 Open AI 的合作計劃,在一定程度上給市場注入了信心。在管理層交流之後,公司股價繼續上漲至 5% 附近。

而至於 ASIC 競爭方面,公司並未給出很明確的觀點,這依然是壓制公司股價上漲的一個方面。如果公司能更加明確回應競爭問題,英偉達的估值有望進一步抬升。

一、$英偉達(NVDA.US) 財報核心數據回顧

季度營收:570 億美元,同比增長 62%,環比增長 100 億美元(22%),創歷史新高。

數據中心營收:510 億美元,同比增長 66%,計算業務同比增長 56%(主要受益於 GB300 量產),網絡業務增幅逾一倍(源於 NVLink 規模化部署)。

各業務營收:

遊戲業務:43 億美元,同比增長 30%。

專業可視化業務:7.6 億美元,同比增長 56%。

汽車業務:5.92 億美元,同比增長 32%。

毛利率:GAAP 毛利率 73.4%,非 GAAP 毛利率 73.6%。

運營支出:GAAP 運營支出環比增長 8%,非 GAAP 運營支出增長 11%。

庫存與供應鏈:庫存環比增長 32%,供應承諾額環比增長 63%。

税率:非 GAAP 實際税率 17%,略高於預期 16.5%。

  1. 英偉達財報電話會詳細信息

2.1 高層陳述核心信息

戰略與前景:

客户正推動三大平台轉型(加速計算、AI 模型和智能代理),這些變革處於初期階段,影響將遍及各行各業。

從 2024 年初至 2026 年底,Blackwell 和 Ruben 架構預計創造 5000 億美元收入;2030 年末,AI 基礎設施市場預計達 3 萬億至 4 萬億美元,英偉達將成為首選方案。

三大擴展法則(預訓練、後訓練與推理)催生良性循環:計算資源獲取推動智能提升,進而促進應用普及與利潤增長。

世界正經歷三重平台變革:從 CPU 向 GPU 加速計算轉型(加速計算)生成式 AI 轉型(成式人工智能正逐步取代傳統機器學習)物理 AI 轉型(智能體等)。英偉達架構能同時支持這三項轉型。

業務進展與展望:

數據中心:需求超出預期,雲服務廠商的 AI GPU 售罄,各代 GPU 產品線(包括 Blackwell、Hopper 及 Ampere)滿負荷運轉;

網絡業務:營收 82 億美元,同比增長 162%;NVLink 規模化部署的啓動,Spectrum X 以太網(spectrum ex Ethernet)與 Quantum X InfiniBand 產品均實現強勁的兩位數增長。

至於對 2026 年頭部雲服務提供商(CSP)及超大規模雲服務商的預期,其總資本支出(CapEx)持續增長,目前已達到約 6000 億美元,較年初增加了 2000 多億美元。當前超大規模雲服務商的工作負載中,向生成式人工智能領域加速計算的轉型,約佔公司長期機遇的一半。

產品進展:

Blackwell 產品:第三季度勢頭強勁,GB300 的出貨量超越了 GB200,貢獻 Blackwell 總收入約三分之二;向 GB300 過渡順利,主要雲服務提供商已接收量產出貨。

Blackwell Ultra 的訓練速度比 Hopper(平台)快 5 倍;Blackwell 在所有模型及用例下均實現了最高性能,同時擁有最低的總擁有成本(TCO)。

Hopper 產品:本季度季度營收約達 20 億美元。H20 產品本季度銷售額約為 5000 萬美元;受地緣政治因素及中國市場競爭日益激烈的影響,多筆大額採購訂單未能兑現。儘管當前形勢導致我們無法向中國市場運送更具競爭力的數據中心計算產品,公司仍致力於與美國和中國政府持續溝通協作

Rubin 產品:將於 2026 年下半年啓動量產。Vera Rubin 平台由 7 顆芯片驅動,相較於 Blackwell(平台),其性能將再次實現突破性提升。目前公司已從供應鏈合作伙伴處收回硅片,並順利推進調試工作。

Rubin 平台是公司的第三代 RAC 規模級系統,在提升性能的同時,仍保持與 Grace Blackwell 平台的兼容性。公司已為 Rubin 平台的快速量產爬坡做好準備。

NVLink Fusion:富士通(Fujitsu)達成戰略合作,雙方將通過 NVLink Fusion 技術整合富士通的中央處理器(CPU)與英偉達的圖形處理器(GPU),以連接彼此龐大的生態系統。

公司還宣佈與英特爾(Intel)開展合作,共同研發多代定製化數據中心及個人電腦(PC)產品,並藉助 NVLink 技術連接英偉達與英特爾的生態系統。

ARM 也宣佈將整合 NVLink 技術授權(IP),供客户打造可連接英偉達 GPU 的 CPU 系統級芯片(SoC)。

大多數不具備 CUDA 技術及英偉達經時間驗證的通用架構的加速器,會隨着模型技術的演進,在短短几年內就被淘汰。而得益於 CUDA 技術,公司 6 年前出貨的 A100 GPU 仍在滿負荷運行

AI 生態與合作:

OpenA 的合作:核心是幫助其建設並部署至少 10 千兆瓦規模的 AI 數據中心,還有機會對該公司進行投資。目前公司正推進達成一份最終協議。

公司通過 OpenAI 的雲服務合作伙伴 —— 微軟 Azure(Microsoft Azure)、甲骨文雲基礎設施(OCI)及 CoreWeave—— 為其提供服務。在可預見的未來,公司將繼續保持這一合作模式

Anthropic 的合作:首次採用英偉達技術,將針對 CUDA 技術優化 Anthropic 的模型,從而實現最佳的性能、效率與總擁有成本(TCO)。初始算力承諾包含 1GW 的算力容量,將基於 Grace Blackwell 與 Vera Rubin 系統實現。

新客户與合作伙伴: 本季度,公司宣佈的 AI 工廠及基礎設施項目合計涉及 500 萬塊 GPU。這類需求覆蓋各類市場主體,包括主權國家相關機構、新型算力建設方、企業及超級計算中心,其中還包含多個具有里程碑意義的建設項目——例如 XAI 的 Colossus 2,以及禮來製藥(Lilly)用於藥物研發 AI 工廠。

亞馬遜雲科技(AWS)與 Humane 公司擴大了合作範圍,其中包括部署至多 15 萬台 AI 加速器(含我方 GB300 芯片);此外,X AI 與 Humane 也宣佈建立合作關係,雙方將聯合打造全球一流的 GPU 數據中心網絡,該網絡將以一座 500 兆瓦的旗艦數據中心為核心;

物理人工智能(Physical AI):已成為英偉達一項數十億美元規模的業務,為其下一階段增長帶來了數萬億美元規模的機遇。與 PTC、西門子、百德、卡特彼勒等企業合作,構建 Omniverse 數字孿生工廠;Agility Robotics、亞馬遜機器人等基於英偉達平台開發智能機器人。

供應鏈與製造:與台積電合作生產美國本土 Blackwell 晶圓;未來四年與富士康、緯創等擴大美國業務。

第四季度展望:

總營收預計 650 億美元(上下浮動 2%);GAAP 和非 GAAP 毛利率分別為 74.8% 和 75%(波動±50 個基點)。與上季度一致,公司未將來自中國市場的任何數據中心計算業務營收納入本季度預期。GAAP 和非 GAAP 運營支出分別約 67 億美元和 50 億美元。GAAP 和非 GAAP 其他收支(不含非流通及公開持股證券損益)預計將產生約 5 億美元收益。有效税率預計 17%(±1%)。不含任何特殊項目。

2027 財年展望:儘管成本在上升,公司努力將毛利率維持在 75% 左右,;

其他重要論述:

對 AI 泡沫的回應:英偉達與其他任何加速器廠商都不同,公司在 AI 的每個階段都表現出色,無論是預訓練、訓練後處理還是推理。而且,憑藉 20 年來在 CUDA X 加速庫上的投入,公司在科學與工程仿真、計算機圖形學、結構化數據處理以及傳統機器學習等領域,同樣具備出眾的實力。

2.2Q&A 問答

Q:之前提到 Blackwell 和 Ruben 架構在 2025 和 2026 年將創造 5000 億美元收入,其中 1500 億已發貨。本季度結束後,是否仍預期在未來約 14 個月內實現約 3500 億美元收入?

這些數字是否存在上行可能?

A:是的,我們正按計劃實現 5000 億美元的預測,並已完成了部分季度的目標。本季度我們發貨了 500 億美元,未來幾個季度將持續推進至 2026 年底。這個數字將會增長,公司確信在 2026 財年還將滿足更多可發貨的計算需求。例如,公司與 KSA 的協議就在 3 年內新增了 40 萬至 60 萬個 GPU,Anthropic 也是全新需求。因此,我們明確有機會在已公佈的 5000 億美元基礎上獲得更多收入

Q:鑑於對 AI 基礎設施建設規模、融資能力及投資回報率的擔憂,同時 GPU 供不應求,且新一代技術(如 B300、Rubin)的巨大效益尚未完全顯現,供應是否能在未來 12-18 個月內趕上需求?抑或這一情況將持續更久?

A:我們在供應鏈規劃方面做得非常出色,與台積電、內存供應商及系統 ODMs 等全球技術公司密切合作,併為重大年度做好了計劃。我們目睹的三大轉型——從通用計算向加速計算、生成式 AI 取代傳統機器學習、以及全新的智能體範疇——正在同步推進。所有這些應用都在 NVIDIA GPU 上運行並得到加速。同時,由於 AI 模型質量飛速提升,其在各用例中的採用(如代碼輔助、醫療、視頻編輯等)正急劇增長。這些指數級增長因素同時發揮作用,迴歸第一性原理,審視前述每個動態的進展至關重要。

Q:在 5000 億美元收入預測中,對每 GW 裝機中英偉達設備價值的假設是多少?

從長期看,您提到 2030 年數據中心規模將達 3-4 萬億美元,其中有多少需要供應商融資?

多少能由大客户、政府或企業的現金流支持?

A:每一代產品中,我們在數據中心的價值都在增加。Hopper 世代大約在 200-250 億美元/GW,Blackwell 世代(尤其是 Grace Blackwell)約為 300 億美元左右/GW,Rubin 世代則會更高。每一代的性能提升都是數倍,客户總擁有成本也相應改善。最關鍵的是,數據中心功率有限(如 1 吉瓦),因此每瓦性能(能效)至關重要,這直接決定了收入。我們通過全棧協同設計來優化能效。

關於融資問題,客户的融資方式由他們自行決定。目前大部分投資集中在超大規模企業,這些投資主要由其現金流支持投資英偉達 GPU 不僅通過加速計算替代通用計算來降低成本(摩爾定律已放緩),還能通過生成式 AI 升級推薦系統等方式提升現有業務收入。在此之上的智能代理 AI 則是全新的應用和消費,這些也是歷史上增長最快的應用。此外,每個國家將資助自身的基礎設施,全球眾多行業(如自動駕駛、數字孿生工廠、生物科技)才剛剛開始應用智能 AI,它們會自行籌資。不要僅從超大規模企業的角度看待未來建設。

Q:關於未來幾年可能產生的約 0.5 萬億美元自由現金流,您計劃如何運用?多少用於股票回購,多少用於投資生態系統?您如何進行生態系統投資?

外界對這些交易(如對 Anthropic、OpenAI 的投資)的運作方式和標準存在困惑。

A:首先,我們需要強大的資產負債表來支持增長和確保有韌性的供應鏈,這是我們客户依賴我們的基礎。其次,我們將繼續進行股票回購。

關於投資,我們所做的所有投資都與擴展 CUDA 生態系統相關。以對 OpenAI 的投資為例,我們自 2016 年起就建立了合作關係,旨在深化技術合作以支持其快速增長,並共同開發生態系統。作為投資回報,我們獲得了該公司的股份,這是一傢俱有劃時代意義的智能代理公司,我們預期這將帶來非凡的回報。

再以 Anthropic 為例,這是首次將其引入英偉達架構。通過此次深度合作,公司將把 Anthropic 的 Cloud 平台引入英偉達生態系統。

我們的投資邏輯是:英偉達平台是全球唯一能運行所有 AI 模型的平台。我們通過生態投資,與世界上一流的公司進行深度技術合作,這既擴展了我們生態系統的覆蓋範圍,也讓我們得以投資於這些往往具有劃時代意義的、未來非常成功的公司,並持有其股份。這就是我們的投資策略。

Q:過去您提到約 40% 的發貨量與 AI 推理相關。展望明年,您預計該比例將如何變化?

此外,您能否談談預計明年推出的 Rubin CPX 產品,及其可能佔據的整體市場規模(TAM),以及該產品的目標客户應用?

A:關於推理,三大擴展法則(預訓練、後訓練、推理)正同步發揮作用。推理因思維鏈和推理能力,其計算需求已呈指數級增長。很難精確預測任何時間點上的具體百分比,但我們希望推理能成為市場的很大組成部分,因為這意味着人們正在更多應用和更頻繁地使用它。我們的 Grace Blackwell 平台在這方面領先世界一個數量級,GB200 和 GB300 憑藉 NVLink 72 實現了 10 到 15 倍的性能提升,我們在此領域的領導地位無疑是多年的。

關於 Rubin CPX,它專為長上下文工作負載生成而設計。這類工作負載需要先吸收大量上下文信息,可能是一批 PDF、觀看一系列視頻、研究 3D 圖像等。CPX 為此類工作負載設計,其每美元性能非常出色。

Q:許多客户在尋求自備電力,但什麼是您最擔心的、可能限制增長的最大瓶頸?是電力、融資,還是其他如內存或晶圓廠等問題?

A:這些都是問題,也都是制約因素。在我們這樣的增長速度和規模下,沒有任何事情是容易的。英偉達所做的是前所未有的事業,我們創造了一個全新的行業。一方面,我們正在將計算從通用計算和傳統計算轉向加速計算和 AI;另一方面,我們創造了一個名為 “AI 工廠” 的全新行業。

這整個轉型需要巨大的規模,涉及從供應鏈到土地、電力、建築乃至融資等方方面面。這些事情都不容易,但它們都具有吸引力並且都是可以解決的。我們對供應鏈部分很有信心,因為我們非常擅長管理供應鏈,並擁有合作了 33 年的優秀夥伴。

同時,我們也在土地、電力和融資等領域建立了許多合作伙伴關係,擁有多條市場通路。最重要的是,我們必須確保我們的架構能為客户提供最佳價值。目前,我非常有信心,英偉達的架構能提供最佳性能,對於任何給定的能源投入,我們的架構將驅動最高的收入。我們成功的速率在增加,選擇我們的客户和平台數量在增加而非減少。

Q:關於明年毛利率目標維持在 75% 左右,最大的成本增長來自哪裏?是內存還是其他因素?

你們將通過成本優化、預購還是定價等何種方式實現該目標?

另外,考慮到營收可能顯著增長,應如何預期明年的運營支出(OpEx)增長?

A:我們已通過成本改善和產品組合優化,實現了本財年末毛利率達到 75% 左右的目標,並將在第四季度繼續執行。展望明年,行業內的投入成本上漲是已知挑戰,我們的系統包含大量複雜組件。通過持續致力於成本改善、週期時間縮短和產品組合優化,我們計劃將毛利率維持在 75% 左右。關於運營支出,我們的目標是確保工程團隊和所有業務團隊能夠持續創新,為市場開發更多系統。我們正忙於新架構的推出,因此將繼續投入創新,充分利用這一競爭環境。在供應鏈方面,我們很早就與供應鏈夥伴進行預測、規劃和談判,由於長期合作且需求明確,我們已經為自己確保了大量的供應。

Q:隨着 Anthropic 交易的宣佈以及客户羣的廣泛,您對 AI 專用集成電路(ASIC)或專用 XPU 在架構建設中作用的看法是否發生變化?過去您認為這些項目難以真正部署,現在情況是否更傾向於 GPU 架構?

A:首先,作為公司,你是在與團隊競爭,而世界上並沒有那麼多擅長構建如此複雜系統的團隊。如今,構建一個 AI 系統遠不止一顆芯片,它需要整個機架、三種不同類型的交換機(縱向擴展、橫向擴展、跨平台擴展),並且 AI 現在需要巨大的內存和上下文容量,模型多樣性也急劇增加。

問題的複雜性更高,AI 模型的多樣性極大。我們的特殊性體現在五個方面:
第一,我們加速轉型的每個階段。CUDA 使我們能夠從通用計算過渡到加速計算,我們在生成式 AI 和智能代理 AI 方面都非常出色。你可以投資一種架構,通用於所有場景,無需擔心工作負載在不同階段的變化。
第二,我們在 AI 的每個階段都表現卓越。眾所周知,我們非常擅長預訓練,後訓練也很出色,並且事實證明我們在推理方面也非常強大,因為推理實際上非常困難。

第三,我們是世界上唯一能運行所有 AI 模型的架構,包括每一個前沿 AI 模型、開源模型、科學模型、生物模型、機器人模型等。無論模型類型如何,我們都能運行。
第四,我們覆蓋每一個雲平台。開發者喜愛我們的原因在於我們無處不在,從雲端到本地部署,再到機器人系統、邊緣設備、個人電腦等。一種架構,處處適用,這非常了不起。

第五,也是最重要的一點,對於雲服務提供商或新公司而言,選擇英偉達平台是因為我們的需求來源極其多樣化。我們能夠幫助解決需求問題。這不僅僅是隨意將一顆 ASIC 放入數據中心,而是關乎需求從何而來、多樣性從何而來、韌性從何而來。我們架構的多功能性、能力的多樣性,以及我們龐大的生態系統,帶來了極其良好的需求。這五個方面——加速轉型的每個階段、AI 的每個階段、每一種模型、從雲到本地部署的覆蓋,最終都導向了實實在在的需求。

本文的風險披露與聲明:海豚君免責聲明及一般披露