
英偉達:主權 AI 將帶來數十億收入(FY25Q1 電話會)
英偉達 (NVDA.O) 北京時間 5 月 23 日凌晨,美股盤後發佈 2025 財年第一季度財報(截至 2024 年 4 月):
以下為 英偉達 2025 財年第一季度財報電話會紀要,財報解讀請移步《英偉達:“宇宙” 最強股,禮包炸不停》
一、英偉達財報核心信息回顧:

二、$英偉達(NVDA.US) 財報電話會詳細內容
2.1、高管層陳述核心信息:
1)經營亮點:
① 數據中心業務:
a. 收入達到 226 億美元,創歷史新高,環比增長 23%,同比增長 427%。增長主要得益於對 NVIDIA Hopper GPU 計算平台持續強勁的需求。
b. 大型 CSP 佔數據中心收入近 45%,推理佔數據中心收入約 40%。企業客户支持如特斯拉的 AI 訓練集羣擴展,預計汽車行業成為數據中心最大的企業垂直領域。
② 遊戲和 AI PC 業務:收入 26.5 億美元,同比增長 18%。GeForce RTX GPU 的安裝基數超過 1 億,適合遊戲玩家、創作者和 AI 愛好者。
③ 專業可視化業務:收入 4.27 億美元,同比增長 45%。Omniverse 將推動下一波專業可視化增長,與大型工業軟件製造商合作。
④ 汽車業務:收入 3.29 億美元,同比增長 11%。支持小米推出首款電動汽車 SU7 轎車,使用 NVIDIA DRIVE Orin AI 汽車計算機。
⑤ 全球市場: 各國投資主權 AI,推動數據中心收入多樣化。日本投資超過 7.4 億美元建設主權 AI 基礎設施。歐洲國家如法國和意大利,建設強大的雲原生 AI 超級計算機。新加坡等地建設 NVIDIA 加速的 AI 工廠。
⑥ 產品更新:
a. Hopper GPU:持續需求增長,H100 推理速度提高 3 倍,H200 即將生產併發貨。
b. Grace Hopper 超級芯片:為全球新的超級計算機提供節能 AI 處理能力。
c. InfiniBand:網絡同比增長,供應鏈問題導致適度的連續下降。
d. Spectrum-X 以太網網絡解決方案:針對 AI 優化,打開全新市場。
⑦ 新產品發佈:
a. NVIDIA Inference Microservices (NIM):提供安全且性能優化的容器,加速生成式 AI 應用程序的部署。
b. Blackwell GPU 架構:訓練速度比 H100 快 4 倍,推理速度快 30 倍,總體擁有成本和能耗降低 25 倍。
2)財務要點
1)股東回報:以股票回購和現金股息的形式返還 78 億美元,宣佈股票 10 比 1 拆分並提高股息 150%。
2)二季度指引:
| GAAP | Non-GAAP | |
| 總收入 | 280 億美元(±2%) | |
| 毛利率 | 74.8% | 75.5% |
| 運營費用 | 40 億美元 | 28 億美元 |
| 税率 | 17%(±1%) |
3)黃仁勳對轉型重要性的觀點:
隨着下一次工業革命的到來,NVIDIA 正與全球的公司和國家合作,引領着從傳統數據中心到加速計算的轉型,建立 AI 工廠以生產人工智能。AI 的應用正推動各行各業的生產力顯著提升,幫助企業在降低成本和能耗的同時擴展收入機會。
雲服務提供商作為生成式 AI 的首批採用者,通過與 NVIDIA 合作,已經實現了工作負載的加速,節省了資金和電力。NVIDIA Hopper 平台生成的 Token 正在推動 AI 服務收入的增長,同時 NVIDIA 雲實例吸引了大量開發者。
數據中心業務的增長得益於對 Hopper 平台上生成式 AI 訓練和推理的強勁需求,這一需求隨着模型學習變得更加多模態而持續增長。推理工作負載的快速增長表明,生成式 AI 正在推動全棧計算平台的轉型,這將改變計算機交互的方式。
NVIDIA 正在從信息檢索模式轉向生成答案和技能的計算模式,AI 將理解上下文和意圖,具備知識、推理、計劃和執行任務的能力。這標誌着計算機的工作方式和功能正在發生根本性的變化,從通用 CPU 到 GPU 加速計算,從指令驅動的軟件到理解意圖的模型,從信息檢索到執行技能,從生產軟件到生成 Token、製造數字智能。
此外,生成式 AI 已經擴展到消費互聯網公司、企業、主權 AI、汽車和醫療保健客户,開闢了多個數十億美元的垂直市場。Blackwell 平台的全面生產為萬億參數規模的生成式 AI 提供了基礎,結合 Grace CPU、NVLink 等技術,提供了更豐富、更完整的 AI 工廠解決方案。公司相信今年的主權 AI 可以帶來接近大幾十億美元的收入。
Spectrum-X 為 NVIDIA 打開了全新的市場,將大規模 AI 引入僅使用以太網的數據中心。NVIDIA NIMs 作為新的軟件產品,提供企業級優化的生成式 AI,能夠在雲、本地數據中心以及通過廣泛的生態系統合作伙伴網絡的 RTX AI PC 上運行。
NVIDIA 已經準備好迎接下一波增長,從 Blackwell 到 Spectrum-X 再到 NIMs,公司正站在這一轉型的前沿。
2.2、Q&A 分析師問答
Q:Blackwell 評論説產品已全面投產,這意味着產品不再處於樣品階段。那麼,如果產品已經投產,它在客户手中的發貨和交付時間會是怎樣的?
A:我們將在第二季度開始發貨,並在第三季度逐步增加。客户預計將在第四季度完成數據中心的建設。今年我們將看到大量 Blackwell 的收入。
Q:Blackwell 與 Hopper 在部署上有何差異?液態冷卻在規模化應用上尚屬首次,它在節點和數據中心層面都帶來了工程挑戰。這些複雜性是否會影響部署過渡期?您如何看待這一過程的發展?
A:Blackwell 平台提供多樣化配置,包括空冷、液冷、x86 和 Grace、InfiniBand 以及 Spectrum-X 技術,以及在 GTC 上展示的大規模 NVLink 架構。客户將能夠輕鬆地從 Hoppers 過渡到 H100、H200 和 B100。Blackwell 系統設計上確保了與現有數據中心的電氣和機械兼容性,同時保證 Hopper 上的軟件堆棧在 Blackwell 上能夠高效運行。
我們一直在積極推動整個生態系統為液冷技術做好準備,與各方就 Blackwell 平台進行了深入溝通。CSP、數據中心、原始設計製造商、系統製造商以及供應鏈合作伙伴,包括冷卻和數據中心供應鏈,都已經為 Blackwell 的到來及其與 Grace Blackwell 200 結合所帶來的能力做好了準備。GB200 的性能預計將非常卓越。
Q:您如何確保產品得到充分利用,避免因供應緊張、競爭等因素導致的提前採購或囤積行為?您在系統中建立了哪些機制,以確保貨幣化與發貨增長同步?
A:數據中心對 GPU 的需求巨大,我們每天都在努力滿足這一需求。應用如 ChatGPT、GPT-4o、多模態的 Gemini、Anthropic 以及 CSP(CSPs)的工作正在消耗市場上所有的 GPU。此外,還有眾多的生成式 AI 初創公司,涉及多媒體、數字角色、設計工具、生產力應用、數字生物學等領域,都在推動對 GPU 的需求。客户迫切要求我們儘快交付系統。
長期來看,我們正在徹底重新設計計算機的工作方式,這將是一個重大的平台轉變。計算機將不再是單純的指令驅動設備,而是能夠理解用户意圖、進行推理並提供解決方案的智能計算機。這種轉變將影響全球的計算架構,甚至 PC 計算堆棧也將經歷革命。目前我們所看到的只是冰山一角,我們實驗室正在進行的工作以及與全球初創公司、大型企業和開發者的合作將帶來非凡的成果。
Q:面對 H200 和 Blackwell 產品的高需求,您預計在轉向這些新產品時,Hopper 和 H100 的需求會有所減緩嗎?客户是否會等待這些新產品?或者您認為 H100 的需求足以維持增長?
A:本季度 Hopper 需求持續增長,我們預計在過渡到 H200 和 Blackwell 期間,需求將長時間超過供應。各方都急於部署其基礎設施,因為他們希望儘快節省成本並實現盈利。
Q:許多雲客户在與您合作的同時,也宣佈了新的或更新現有內部項目。您如何看待他們作為競爭對手?他們是否主要限於處理內部工作負載,還是未來可能擴展到更廣泛的領域?
A:NVIDIA 的加速計算架構在多個方面與競爭對手不同。首先,它能夠全面處理從非結構化數據處理到訓練準備,再到結構化數據處理、數據框架處理、訓練和推理的整個流程。推理已經從簡單的檢測轉變為生成,這需要根本不同的處理架構。我們的 TensorRT-LLM 因此廣受好評,因為它使我們的架構在相同芯片上性能提升了 3 倍,這體現了我們架構和軟件的豐富性。
其次,NVIDIA 平台的多功能性意味着它可以用於計算機視覺、圖像處理、計算機圖形學等所有計算模式,是計算成本和能源通脹問題下的可持續解決方案。在通用計算達到極限時,加速計算是前進的唯一途徑,它幫助節省計算成本和能源,使我們的平台成為數據中心最低 TCO 的選擇。
第三,NVIDIA 在所有云平台中都有佈局,為開發者提供了一個無處不在的開發平台,無論是在本地、雲端還是各種大小和形狀的計算機中。
最後,NVIDIA 不僅製造芯片,還構建了 AI 工廠,這是一個系統問題,需要優化所有芯片作為一個系統協同工作。我們通過系統優化,顯著提高了性能,從而為客户創造了巨大的價值。在基礎設施成本高昂的今天,最高性能的解決方案也意味着最低的 TCO。
Q:客户目前投入巨資的產品,其競爭力將迅速下降,甚至快於產品的折舊週期。請您談談,隨着向 Blackwell 過渡,客户將如何處理他們現有的龐大安裝基礎,這些產品雖然軟件兼容,但性能遠不及新一代產品。您如何看待客户在這一轉型過程中的應對策略?
A:首先,建設進度的不同階段會帶來不同的感受。目前客户僅處於建設初期,因此他們需要儘可能快速地推進。Blackwell 的到來將帶來巨大提升,而在此之後,我們還有其他新產品將陸續推出。我們的產品更新遵循一年的節奏,客户可以根據自己的建設進度,持續推進。
其次,客户需要持續投資以實現性能的平均化。他們需要立即盈利,同時節省成本,時間對他們來説極為寶貴。例如,第一個達到新里程碑的公司將宣佈一項突破性的 AI 技術,而緊隨其後的公司可能只能宣佈性能提升 0.3% 的產品。因此,成為持續提供突破性 AI 技術的公司至關重要。
第三,我們能夠快速推進並優化技術棧,因為我們構建並監控了整個數據中心。我們能夠精確識別瓶頸並進行優化,而不是僅憑猜測。我們交付的系統在規模上表現卓越,因為我們構建了整個系統。
此外,我們能夠將構建的 AI 基礎設施解構並根據客户需求整合到他們的數據中心中,確保性能最優化。我們對整個數據中心規模的深刻理解,以及從頭開始構建每一個芯片的能力,使我們能夠確保每一代產品都能發揮最大效用。
Q:目前推動對您解決方案需求的工作負載主要是神經網絡的訓練和推理,這似乎是一個相對有限的工作負載類型,可能更適合定製解決方案。那麼,通用計算框架是否面臨更大風險?或者這些工作負載的多樣性和快速演變是否足以支持傳統的通用計算框架?
A:NVIDIA 的加速計算具有多功能性,但不應被視為通用計算。例如,我們不擅長執行專為通用計算設計的電子表格任務。操作系統的控制循環代碼對於加速計算而言也不是最佳選擇。我們的平台能夠加速多種應用程序,但它們在並行處理和多線程方面有共同特點,如 5% 的代碼可能佔據了 99% 的運行時間。
我們平台的多功能性和系統級設計是過去十年中眾多初創公司選擇我們的原因。這些公司的架構通常較為脆弱,面對生成式 AI 或融合模型等新興技術時,他們需要能夠適應整個領域的解決方案,而不是僅針對單一模型。隨着 AI 的進步,這些解決方案需要能夠適應軟件的持續發展和擴展。
我們相信,未來幾年內,這些模型將會有百萬倍的擴展,我們為此做好了準備。我們平台的多功能性至關重要,而過於脆弱或過於特定的解決方案,如 FPGA 或 ASIC,雖然在特定任務上可能更有效,但它們並不具備通用計算機的廣泛適用性。
Q:您能否分享,在供應受限的背景下,您如何看待為中國推出的 H20 產品及其對需求的影響?同時,您如何平衡 H20 與其他 Hopper 產品之間的客户需求?此外,您能否闡述這對下半年銷售和毛利率可能產生的影響?
A:我們致力於尊重並服務好每一位客户。儘管我們在中國市場的業務較以往有所減少,且由於技術限制,市場競爭更為激烈,我們仍將盡最大努力滿足客户需求。我們對整個市場的總體看法是需求持續超過供應,特別是對於 H200 和 Blackwell 產品,在年底時這一情況將尤為明顯。
Q:GB200 系統目前顯示出強勁的市場需求。回顧歷史,NVIDA 銷售了大量的 HGX 板卡和 GPU,而系統業務則相對較小。請問,目前對系統需求增長的原因是什麼?是否僅與 TCO 有關?還是有其他因素?
A:我們對 GB200 的銷售策略保持不變。我們合理地解構組件,並與計算機制造商整合。今年,Blackwell 平台將推出 100 種不同的計算機系統配置,遠超 Hopper 的峯值時期。你將看到包括液冷、空冷、x86、Grace 等多種版本。這些系統由我們眾多優秀合作伙伴提供。Blackwell 平台顯著擴展了我們的產品線,集成了 CPU 並提高了計算密度。液冷技術將為數據中心節省大量電力成本,同時提高能效,是一個更優的解決方案。我們提供了更多數據中心組件,使數據中心能夠獲得更高的性能,包括網絡交換機和 NIC。我們現在提供以太網,使那些僅熟悉以太網操作的客户能夠大規模採用 NVIDIA AI,因為他們擁有相應的生態系統。
總的來説,Blackwell 平台在多方面都更加全面,使我們能夠為客户提供更豐富的產品和服務。
Q:儘管 Intel 和 AMD 作為優秀合作伙伴提供了高品質的 x86 解決方案,NVIDIA 是否也能在新興的 AI 工作負載領域提供獨特的優勢,特別是在其他競爭對手面臨更多挑戰的情況下?
A:我們在與 x86 合作伙伴的共同努力下,構建了許多卓越的系統。然而,Grace CPU 使我們能夠實現現有系統配置所無法做到的:它與 Hopper 之間的內存系統是協同且互聯的,兩者之間的互連幾乎構成了一個超級芯片,其接口速度達到每秒數太比特。Grace 使用的是首款數據中心級低功耗 LPDDR 內存,這在每個節點上都大幅節省了電力。
此外,我們可以自主設計整個系統的架構,從而創建出具有龐大 NVLink 領域的產品,這對於下一代大型語言模型的推理至關重要。例如,GB200 擁有一個 72 節點的 NVLink 領域,相當於 72 個 Blackwell 連接成一個巨大的 GPU。因此,出於架構、軟件編程和系統設計的必要性,我們開發了 Grace Blackwell。
正如您昨天所見,Satya 宣佈了下一代 PC——Copilot-Plus PC,它在 NVIDIA RTX GPU 上運行出色,這些 GPU 已經應用於筆記本電腦。同時,它也完美支持 ARM 架構,為 PC 系統創新提供了新的機會。
Q:面對來自 GPU 和定製 ASIC 的日益增長的競爭,您如何看待 NVIDIA 未來的創新速度?在未來十年,我們需要解決哪些挑戰?
A:我可以確認,在 Blackwell 之後我們有另一款芯片,並且我們保持一年一更新的節奏。在網絡技術方面,我們同樣快速迭代,剛剛宣佈了面向以太網的 Spectrum-X。我們對以太網的未來發展充滿期待,並擁有強大的合作伙伴生態系統支持,包括戴爾等將 Spectrum-X 推向市場的合作伙伴。
我們致力於發展三種關鍵技術:NVLink 作為單一計算領域的計算結構,InfiniBand 作為計算結構,以及以太網作為網絡計算結構。這三個方面都將迅速發展,帶來新的交換機、NIC、功能和軟件棧。我們將迎來包括新的 CPU、GPU、網絡 NIC 和交換機在內的大量芯片更新。
最重要的是,所有這些新技術都將運行 CUDA 和我們的整個軟件棧。這意味着,今天對我們軟件棧的投資將隨着時間自動增值,性能提升。同樣,對我們架構的投資將隨着其在更多雲平台和數據中心的應用而不斷擴展。
我相信,我們創新的步伐將提升技術能力,並降低 TCO。NVIDIA 的架構將支持這一新的計算時代,並推動一場新的工業革命,屆時我們將不再僅僅製造軟件,我們將大規模地製造人工智能代幣。
<此處結束>
本文的風險披露與聲明:海豚投研免責聲明及一般披露



