
加速計算,全球數據中心還要翻一番(英偉達 4QFY24 紀要)
英偉達 (NVDA.O) 北京時間 2 月 22 日凌晨,美股盤後發佈 2024 財年第四季度財報(截至 2024 年 1 月):
以下是$英偉達(NVDA.US) 2024 財年四季度的財報電話會紀要,財報解讀請移步《英偉達:AI 獨秀,是芯片真王》
一、財報核心信息回顧:

二、財報電話會詳細內容
2.1、高管層陳述核心信息:
1)FY24Q4 業績全面大超預期。營收 221 億美元,環比增長 22%,同比增 265%,高於分析師預期的 204.1 億美元。淨利潤 123 億美元,同比增長 765%,調整後每股收益 5.16 美元,高於分析師預期的 4.59 美元。調整後利潤率 76.7%,超出分析師預期 75.4%。其中,數據中心收入 184 億美元,市場預期 172.1 億美元。
2)FY25Q1 指引同樣大超預期。a) 總收入預計 240 億,上下浮動 2%。預計數據中心和專業版的環比增長將被遊戲的季節性下降部分抵消。GAPP 和非 GAAP 毛利率預計分別為 76.3% 和 77%,上下浮動 50 個基點。與第四季度類似,第一季度的毛利率受益於有利的零部件成本。在第一季度之後,在剩餘時間內,我們預計毛利率將恢復到 75% 左右的範圍。GAPP 和非 GAAP 費用預計分別約為 35 億和 25 億。b) 2025 財年的 GAPP 和非 GAAP 運營費用預計將增長 30% 左右。GAPP 和非 GAAP 其他收入預計約為 1.5 億,不包括非關聯投資的損益。GAPP 和非 GAAP 税率預計為 17%,正負 1%(不包括任何離散項目)。
3)加速計算和生成式 AI 已經達到了引爆點。全球各地的企業、行業和國家需求都在激增,大型雲服務商、專門 GPU 提供商、企業軟件、消費者互聯網公司、汽車金融醫療等垂類行業。去年數據中心大約 40% 的收入來自 AI 推理,且超過一半的數據中心收入來自於大型雲提供商。
4)對於下一代(芯片)產品的需求遠遠超過供應。
5)已開始向中國市場少量供應替代產品。最新財季中國地區數據中心收入佔比已降至個位數,一季度預計保持在相近範圍。
6)整體供應正在改善,但仍然短缺,供應限制將持續至全年,短期內無法滿足需求。
7)供應短缺會導致下一代芯片 B100,預計將於今年晚些時候發貨。
2.2、Q&A 分析師問答
Q: 對於 2024 年和 2025 年的數據中心業務預期,過去三個月內有何變化?在數據中心業務中,對於新出現的領域如軟件、主權 AI 等,公司有何看法和預期?最近有文章提到 NVIDIA 可能會參與 ASIC 市場,在未來幾年裏,公司計劃如何在這個市場中競爭和發展?
A:從 2024 年到 2025 年以及以後,數據中心業務持續增長的條件都非常優秀。NVIDIA 在加速計算方面處於領先地位,通過加速計算可以顯著提高 LNG 效率和數據處理成本,同時保持令人難以置信的速度。隨着生成式 AI 的崛起,出現了全新的數據中心類型——AI 生成工廠。每個地區都有自己的語言、知識、歷史和文化,因此希望利用自己的數據訓練並創建自己的數字智能。這種主權 AI 基礎設施正在全球範圍內建設,如日本、加拿大和法國等。沒有直接回答 NVIDIA 是否參與 ASIC 市場。NVIDIA 的推理(inference)業務部分增長巨大,在數據中心中的佔比有 40%。NVIDIA 正在多樣化地進入新市場,包括大型 CSP(雲服務提供商)仍在繼續擴展,同時出現了一個全新的類別——GPU 專業化的 CSP,它們專門提供 NVIDIA AI 基礎設施。此外,企業軟件平台也在部署 AI 服務,如 ServiceNow、Adobe、SAP 等。
Q:關於從推理(inference)獲得的收入佔數據中心收入 40% 的數據,這個比例的增長情況?大型語言模型(LLMs)的推理的增長?關於如何測量推理和訓練在 GPU 上的使用情況,測量方法的可靠性如何?
A:推薦系統在互聯網中起着至關重要的作用,它們負責推薦新聞、視頻、音樂和產品等內容給用户。由於互聯網上有數萬億的內容,而手機屏幕只有有限的空間,因此推薦系統需要將所有這些信息壓縮並展示給用户。過去,推薦系統主要基於 GPU 和 CPU 的方法。然而,隨着深度學習的發展,尤其是生成式 AI 的崛起,推薦系統現在直接依賴於 GPU 加速。這包括嵌入、最近鄰搜索、重新排序和生成增強信息等步驟。現在,GPU 是推薦系統中不可或缺的一部分,幾乎每個大型公司都需要運行這些大型推薦系統。提到了多種生成式模型,如 ChatGPT 和 Mid Journey,以及與公司如 Getty 和 Adobe 的 Firefly 的合作。這些模型在過去的一年裏都是全新的,並且正在為消費者生成大量內容。
Q:期望下一代產品會受到供應限制的影響,這是基於什麼原因?為什麼在 Hopper 供應逐漸寬鬆的情況下,還會出現供應限制?預計這種供應限制會持續多久? 這些供應限制的研究何時進行?
A: NVIDIA 的整體供應鏈正在改善,包括從晶圓、封裝、內存到各種電源調節器、收發器、網絡設備和電纜等組件的供應。NVIDIA 的 Hopper GPU 非常複雜,包含 35,000 個部件,重達 70 磅,被稱為 AI 超級計算機是有道理的。數據中心的後部系統非常複雜,包括網絡系統的電纜佈局,是世界上見過的最密集和複雜的。InfiniBand 業務年同比增長了 5 倍,供應鏈的支持非常出色。因此,整體供應正在改善,預計需求將繼續強勁。每當推出新產品時,都會經歷從零到大量生產的增長過程。這不可能一蹴而就,需要逐步增加生產。目前正在推出新一代產品 H200 和 Spectrum-X。在短期內,由於生產爬坡,可能無法滿足所有需求。Spectrum-X 是全新的產品,旨在進入以太網市場,與 InfiniBand 相比,它更適合作為擴展系統。InfiniBand 將成為 NVIDIA 專用於 AI 的基礎設施,而 Spectrum-X 將是經過優化的 AI 網絡。所有新產品的需求都大於供應,這是新產品常見的特點。NVIDIA 的供應量正在穩步增加。
Q:面對需求顯著大於供應的情況,NVIDIA 是如何考慮產品的分配的?NVIDIA 及其公司在分配其產品時,是如何考慮跨行業、跨客户(其中許多是競爭對手)的公平性的?如何平衡公司的利益和行業的利益的?
A: NVIDIA 與其客户合作多年,協助他們在雲端和內部設置 GPU 實例。許多提供商同時有多個產品來滿足其最終客户的各種需求,以及他們內部的需求。提供商會提前考慮所需的新集羣,並與 NVIDIA 持續討論 Hopper 架構以及未來的技術趨勢,從而理解需求並預測未來的需求。這是一個持續的過程,涉及提供商將購買的產品、正在構建的產品以及最終客户正在使用的產品。NVIDIA 與其客户建立的關係以及他們對構建複雜性的理解,有助於 NVIDIA 進行產品分配,並改善與其客户的溝通。NVIDIA 與其雲服務提供商(CSPs)保持透明,分享產品路線圖和過渡信息,使 CSPs 有信心知道何時、何地以及多少數量地放置哪種產品。公司致力於公平分配產品,避免浪費,並尋找機會將合作伙伴和最終用户連接起來。
Q:如何有效地將積壓訂單轉化為實際的收入?NVIDIA 的產品交貨時間已經大大縮短,這是否意味着對供應商的財務承諾(如庫存購買承諾和預付款)也相應減少?如果將庫存、購買承諾和預付款加在一起,看起來總體上有所下降,如何解讀?
A:NVIDIA 在庫存管理上的策略是,根據他們的分配策略,一旦有新的庫存進入,他們會立即努力將其運送給客户。這表明 NVIDIA 重視滿足客户的交貨時間表。購買承諾包括多個組成部分,既有用於製造的組件,也有可能需要採購的產能。這些組件和產能的採購期限各不相同,有的可能是未來兩個季度,有的可能是多年。NVIDIA 的預付款是為了確保他們在幾個主要的製造供應商處有預留的產能。這些預付款也是基於不同的期限設計的。儘管 NVIDIA 的庫存、購買承諾和預付款的總額看似保持不變,但實際上它們各自具有不同的期限。有時,NVIDIA 需要購買長期供應的組件或需要為其建造的產能,這使得這些款項的期限各不相同。
Q: Colette Kress 曾表示毛利率應該回到 75% 左右的水平,這個預測的背後原因和依據?新產品中包含了高計算密度(HCM)的內容,這是否是影響毛利率預測的一個主要因素,以及除了 HCM 內容外,還有哪些因素可能驅動這個預測?
A:NVIDIA 在 Q4 和 Q1 季度的毛利率相對較高,這主要是因為供應鏈中組件成本的優化,這涉及到計算和網絡業務的多個方面,以及他們製造過程的多個階段。對於接下來的財年,NVIDIA 預計毛利率將回到 75% 左右的水平,這與他們在 Q4 和 Q1 之前的水平一致。NVIDIA 認為,產品組合的平衡將是他們接下來一年裏最大的驅動力。這意味着他們將根據市場需求調整他們的產品線,以最大化利潤。
Q:當考慮到過去十年 GPU 計算方面的一百萬次改進以及未來類似的改進預期時,客户是如何看待公司現在所做的投資在長期使用中的價值的?也就是説,他們當前的訓練集羣如何在未來轉變為影響力集羣?NVIDIA 如何看待這一發展趨勢?
A:平台有兩個主要特點:加速和可編程性,這是他們能夠實現性能大幅提升的原因。公司是唯一一家從非常開始(比如 CNN 和 AlexNet 的初期)就持續支持各種深度學習架構的公司,包括 RLS、Transformers、Vision Transformers、Multi-modality Transformers 等。公司能夠發明新的架構和技術,如他們的密集型課程、Transformer 引擎、新的數值格式和處理結構等,這些都在不同的 10 代課程中得到了實現。公司不僅支持其已安裝的基礎設施,同時還不斷將新的軟件算法和發明集成到這些基礎設施上。公司不僅可以為已安裝的基礎設施提供軟件支持並持續改進,還可以創造全新的技術,如 Hopper Transformer 引擎,並將其實施到未來的產品中。公司的未來產品可能會帶來大型語言模型的驚人突破,這些突破部分將通過 CUDA 軟件實現,並提供給已安裝的基礎設施。
Q:在中國市場正在出貨的替代解決方案的具體產品是什麼?為什麼不應該期待其他替代解決方案會進入市場?
A:公司在美國政府的限制下,需要重新配置其產品,以適應中國市場的特殊需求。這些限制主要涉及到最新的加速計算和 AI 技術。公司理解這些限制,並以非軟件的方式重新設計了其產品。這需要一定的時間,因此公司重置了其對中國市場的產品供應。公司已經開始向中國的客户發送樣品,並計劃在這個市場上盡力競爭並取得成功。在這些限制下,公司上個季度的業務顯著下滑,因為他們在市場上暫停了發貨。儘管他們已經開始在市場上發貨,但預計這個季度的業績將與上個季度相似。公司希望在未來能夠全力競爭並盡其所能在市場上取得成功,但具體的結果還需要觀察。
Q:軟件業務的不同組成部分是什麼?這個業務的增長來源?
A:在軟件業務上的成功源於加速計算在雲端的增長,特別是與雲服務提供商的合作。公司與雲服務提供商合作,幫助運營和管理自己的業務,並在出現問題時提供大規模的技術支持。軟件在加速計算中是至關重要的,這是加速計算與通用計算之間的根本區別。生成式 AI 正在推動每個企業和每個企業軟件公司採用加速計算。這是必要的,因為僅僅依賴通用計算已經很難維持改進的吞吐量。我們將負責這些公司的軟件堆棧的管理、優化、補丁、調整以及安裝基礎優化,並將它們容器化到 NVIDIA AI Enterprise 堆棧中。NVIDIA AI Enterprise 被描述為一個運行時環境,類似於操作系統,專門用於人工智能。公司對每個 GPU 每年收費 4,500 美元,預計全球所有在公有云、私有云和本地環境中部署軟件的企業和軟件公司都將使用 NVIDIA AI Enterprise,特別是對於那些使用 NVIDIA GPU 的公司。這個業務預計在未來會成為一個非常重要的業務。
黃仁勳總結:計算機行業正在同時進行 2 個平台轉變 (加速計算與生成式 AI)。價值數萬億美元的數據中心安裝基礎正在從通用計算轉向加速計算。每個數據中心都將得到加速,以便世界能夠通過增加吞吐量來滿足計算需求,同時管理成本和能源。NVIDIA 實現了令人難以置信的加速,它實現了一種全新的計算範式,即生成式 AI,其中軟件可以學習、理解和生成從人類語言到生物結構和 3D 世界的任何信息。我們現在正處於一個新行業的開端,人工智能專用數據中心處理大量原始數據,將其提煉為數字智能。與上一次工業革命的交流發電廠一樣,NVIDIA AI 超級計算機本質上也是這次工業革命的 AI 發電廠。每個公司和每個行業從根本上來説都是建立在其專有的商業智能之上,並且在未來,其專有的生成人工智能。生成型人工智能已經啓動了一個全新的投資週期,用於建設下一個 1 萬億美元的人工智能生成工廠基礎設施。我們相信,這兩個趨勢將推動未來 5 年內全球數據中心基礎設施安裝量翻一番,並代表每年數千億的市場機會。這種新的人工智能基礎設施將開闢一個今天不可能實現的全新應用世界。我們與超大規模雲提供商和消費者互聯網公司一起開啓了人工智能之旅。現在,從汽車、醫療保健、金融服務到工業電信、媒體和娛樂,各個行業都參與其中。NVIDIA 的全棧計算平台具有特定行業的應用框架以及龐大的開發者和合作夥伴生態系統,為我們提供了速度、規模和影響力,幫助每個公司、每個行業的公司成為人工智能公司。
在下個月於聖何塞舉行的 GTC 上,我們有很多東西要與您分享,所以請務必加入我們。我們期待向您通報下季度的最新進展。
<此處結束>
本文的風險披露與聲明:海豚投研免責聲明及一般披露



