财华社
2023.11.24 00:34

打造 AI 代工廠,英偉達的邏輯是什麼?

portai
我是 PortAI,我可以總結文章信息。

$英偉達(NVDA.US) 公佈了一份超越預期的第 3 財季業績。

截至 2023 年 10 月末止的 2024 財年第 3 季,英偉達的收入同比大增 205.51%,按季增長 34.15%,至 181.2 億美元;非會計準則淨利潤按年大增 588.19%,至 100.2 億美元。

季度毛利率達到 73.95%,非會計準則毛利率為 74.96%,主要受到數據中心銷售額增加,以及庫存降低所帶動,值得留意的是,上年同期這兩項數據分別為 53.57% 和 56.13%,顯見今年的表現有明顯改善。

英偉達預計第 4 財季的收入將達到 200 億美元,算力和網絡需求的持續強勁將帶動其數據中心的強勁增長。不過遊戲業務收入將可能較第 3 財季下降,主要因為季節因素。預計毛利率和非會計準則毛利率分別為 74.5% 和 75.5%。

這一收入預測規模又再上一層樓,比已創新高的第 3 財季收入 181.2 億美元再高出 10.38%,毛利率預測也要高於當前已很高的水平,可見英偉達的下一個財季表現將更加出色。

然而,儘管業績與業績指引都十分樂觀,英偉達的股價在公佈業績前創下紀錄新高後反而掉頭向下。財華社認為主要原因是資金在公佈業績之後獲利回吐,出口限制可能影響到其 20%-25% 的收入,美股市場最近持幣避風的趨勢明顯等因素影響

英偉達 VS.美國超微公司

同為 GPU 龍頭,曾因加密貨幣大跌而踩空的英偉達,成功地憑藉 AI 芯片翻身,目前或佔據生成式 AI 芯片逾八成市場份額。

同行$Arm(ARM.US) (下稱 AMD)也緊隨其後,不過慢起步的 AMD 可能要到明年才成火候,估計今年的收入仍會收縮。

從估值上來看,得益於這幾個季度 AI 芯片的強勁需求,英偉達的收入大幅增長,利潤也顯著提高。今年以來,其股價累計漲幅達到兩倍以上,緊貼其收益增長的預期。

隨着這兩個季度的利潤大幅攀升,英偉達當前市值相對其最近 12 個月非會計準則淨利潤的差距縮小,市盈率從年初時上百倍,到如今 55.59 倍,與 AI 芯片尚未為業績發力的 AMD 差距也拉小。

需要注意的是,在英偉達的 AI 芯片 H100 供不應求之際,AMD 也推出了要與其一較高低的 AI 產品 AI300,而且透露Instinct MI300A 和 MI300X GPU 於第 4 季量產推進順利

AMD 在第 3 財季業績發佈會上指出,其 AI 的進展較預期理想,預計第 4 季數據中心 GPU 收入約為 4 億美元,到 2024 年將超過 20 億美元MI300 有望成為 AMD 歷史上在最短時間內達到銷售額上十億美元的產品

不過,從 AMD 的業績指引來看,AI 的強勁發展或尚未在第 4 財季獲反映,要到 2024 財年才能體現在業績上,也因此其市盈率估值與英偉達存在差距。

英偉達則不然,從上圖可見,其收入與非會計準則淨利潤以前所未見的加速度攀升。

AI 芯片推動了英偉達的強勁增長

第 3 財季,英偉達的數據中心收入貢獻最大,佔到 80.10%,季度收入按年大增 278.66%,按季增長 40.60%,至 145.14 億美元,主要得益於基於 Hopper Tensor Core GPU 架構的 NVIDIA HGX 平台的持續增長,以及 InfiniBand 端到端網絡的推動。

最近兩個季度,在全世界都在佈局生成式 AI 的熱浪之中,英偉達的數據中心收入大幅攀升,見下圖。

NVIDIA HDX 與 InfiniBand 一起,本質上是 AI 超級計算機和數據中心基礎設施的參考架構。Adobe, Firefly, ChatGPT, Microsoft 365 Copilot, CoAssist, Now Assist with ServiceNow 和 Zoom AI Companion 等的生成式 AI 應用程序是在英偉達上構建和運行的。

在訓練和推理大型語言模型、深度學習推薦系統和生成式人工智能應用等基礎設施方面的投資,推動了客户對英偉達加速計算的廣泛強勁需求,也因此其數據中心與以 InfiniBand 為首的網絡收入大幅增長。

推理現在是英偉達 AI 計算的主要工作負載。消費互聯網公司推動了第 3 季的增長,構成了數據中心大約一半的收入,增速也跑贏整體增速。Meta(META.US)等公司正在全面開發學習推薦系統,並投資於 AI,以幫助廣告商優化圖像和文本。大多數主要的消費互聯網公司都在競相加快生成式人工智能的部署。

企業開啓了 AI 部署的競賽。Adobe、Databricks、Snowflake 和 ServiceNow 等企業軟件公司正在添加它們的 AI 助手。有更多的企業正開發適用於垂直產業應用的定製化 AI,例如特斯拉(TSLA.US)。本季度,雲服務提供商大約貢獻了其數據中心營收的另一半。

英偉達的首席財務官科萊特·克雷斯(Colette Kress)在業績發佈會上指出,所有超大規模 CSP(通信服務提供商)以及全球範圍內越來越多的 GPU 專用 CSP 都有需求,這些 CSP 正在迅速增加投資,以把握 AI 領域的新市場機遇。

她指出,NVIDIA H100 Tensor Core GPU 實例現在幾乎可以在每個具有實例和高需求的雲中使用。英偉達今年各個季度都大幅增加了供應,以滿足強勁的需求,預計明年還會持續。她表示,明年還會以更快的節奏發佈更多產品,以滿足不斷增長和多樣化的 AI 機遇。

從產品的角度來看,其第 3 財季的絕大部分收入來自基於 Hopper GPU 架構的 NVIDIA HGX 平台,上一代 Ampere GPU 架構的貢獻較小。為行業標準服務器構建的新型 L40 GPU 開始交付,可支持跨各種客户的訓練和推理工作負載。這也是英偉達 GH 200 Grace Hopper 秘密芯片的第一個收入季度,它結合了基於 ARM(ARM.US)的 Grace GPU 和 Hopper GPU。

值得留意的是,Grace 和 Hopper GPU 正在開發一條價值數十億美元的新產品線。Grace Hopper 可用於 GPU 專用雲供應商,很快就會進入甲骨文雲(Oracle Cloud)。Grace Hopper 也很受超級計算客户歡迎,在第 3 季,LaSalle、Localimos、國家實驗室和瑞士國家超級計算中心開始了首批系統出貨。英國也宣佈將建造世界上最快的 AI 超級計算機之一 Isambard-AI,該計算機將使用近 5500 顆 Grace Hopper 超級芯片。德國超算中心也宣佈將使用接近 2.4 萬顆 Grace Hopper 超級芯和 Quantum 2 InfiniBand,打造新一代 AI 超級計算機。

因此,英偉達預計明年美國、歐洲和日本所有基於 Grace Hopper 打造的超級計算機合計 AI 算力將超過 200 億次/秒,未來還會有更多。這都對其數據中心的收入帶來了很大的提升,現在用於深度學習、推薦、服務聊天機器人、助手和文本圖形生成的 AI 已經全面投入生產,也將帶動更多的 AI 部署需求。

英偉達發佈了 Hopper 系列的新品 BH 200,這是第一款提供 HBM3E(高帶寬存儲)、更快捷、更大內存的 GPU,可進一步加速生成式 AI 和大模型。

與運行大語言模型(如 Lambda2)的 H100 GPU 相比,它將推理能力提高了 2 倍。結合起來,TensorRT LLM 和 H200 在短短一年內提高了性能或降低 4 倍的成本。

與 H100 相比,H200 為 GPT-3 等推理模型提供了 18 倍的性能提升,允許客户遷移到更大的模型,而不會增加延遲。

從明年開始,亞馬遜(AMZN.US)的雲、谷歌雲、微軟(MSFT.US)Azure 和甲骨文雲將成為首批提供 H200 基礎實例的 CSP。

在上週的微軟的 Ignite 大會上,英偉達深化並擴大了與微軟的合作。

英偉達推出了一個 AI 代工服務,開發和調試在 Azure 上運行的定製生成式 AI 企業應用。客户可以使用自己的主域知識和專有數據,英偉達則利用其 AI 專業知識和 DGX 雲的軟件堆棧幫助他們構建 AI 模型,以確保企業的數據安全,同時又能為其提供支持。

英偉達的網絡業務年收入也超出 100 億美元,主要受到 InfiniBand 強勁需求的帶動,InfiniBand 對於取得訓練 LLM 所需的規模和性能至關重要。

在軟件和服務方面,英偉達預計年收有望達到 10 億美元規模,在企業 AI 訓練和 AI 推理的需求急增帶動下,其 DGX 雲服務和英偉達 AI 企業軟件都具有增長機會。

遊戲收入按年增長超 80%,按季增長 15%,至 28.6 億美元,主要受到返學購物季需求強勁的推動。

汽車分部收入同比增長 4%,環比增長 3%,至 2.61 億美元,主要得益於基於英偉達驅動或 SoC(系統級芯片)的自動駕駛平台的持續增長,以及與全球 OEM 客户合作的 AI 駕駛艙解決方案的需求增長。英偉達擴展了富士康的合作,將其新一代汽車系統級芯片 NVIDIA Drive 4 也加入到合作範圍。

出口限制的影響

在第 3 財季末,美國政府宣佈了針對一些市場的出口限制措施。這些限制措施要求,英偉達的多款產品 Hopper 和 MPIR 100 及 800 系列等,都需要取得出口牌照。

據英偉達管理層透露,目前其銷往受影響目的地的收入大約佔其過去幾個季度數據中心收入的 20%-25%。

英偉達預計,在第 4 季,其銷往這些目的地的收入將顯著下降,但其他地區的強勁增長應足以彌補這些影響。美國允許其工業界向包括受限制區域在內全球市場提供數據中心計算產品。

簡單來説,美國對於最先進的產品設定了出口管制,而對於性能較低的產品,則通行無阻。有鑑於此,英偉達表示正努力擴張數據中心產品組合為各個監管類別提供適用的解決方案,以滿足監管要求。

英偉達表示正在與中國和中東的一些客户合作,向美國申請許可證。現在還不清楚這是否會對收入構成重大影響。許多國家開始意識到,需要投資自主的人工智能基礎設施,以支持經濟增長和產業創新。

“黃教主” 的 AI 遠望

CEO 黃仁勳對英偉達的產業發展始終保持着創業者般的熱情,而且對於創新科技的遠見也十分獨到,有着 “教主” 之稱。

現在全世界都在關注 AI 的發展,自然少不了要向黃仁勳請教作為 AI 先驅的英偉達,未來的發展路徑向着哪個方向。

在業績發佈會上,黃仁勳提到,軟件行業將是 AI 影響最大的產業之一,在過去,開發手動使用的工具市場價值達萬億美元。現在,無需人類手動操作,全新的 AI 助手能夠幫助人類使用這些軟件。所以有別於過去授權軟件,英偉達未來要將這些輔助系統連接到 AI 之中,這將成為新一代軟件。

因此,軟件的轉變和軟件的工作方式正驅動着底層的硬件,這正以兩種方式轉變,這種轉變獨立於生成式 AI:

一種與加速算力有關,通用算力很浪費能源和成本,而現在有加速算力,可以節省很多能源和時間。

這就需要一種新型的數據中心,這種新型數據中心與英偉達佔了三分之一的傳統數據中心不一樣。傳統數據中心有很多應用程序運行,由很多人使用,這些人是不同的租户,他們使用相同的基礎設施,通過數據中心存儲了很多文件。而新型數據中心的應用非常少,它處理數據、訓練模型、生成代幣、創建 AI,可稱這類新數據中心為 AI 工廠。現在每個國家都在興建主權 AI 工廠,這或將是未來的一個新趨勢。

AI 工廠運行 AI 助手,這是重要軟件 TAM(潛在市場)的延伸,推動了重要的投資,並擴張價值萬億的傳統數據中心市場,引發了 AI 的產業變革。

而配備 InfiniBand 和 NVIDIA AI 軟件堆棧的 NVIDIA H100 HGX 現在定義了一個 AI 工廠。在擴大供應鏈以滿足全球需求的同時,英偉達也在為下一波 AI 浪潮打造新的增長動力。在其新增長戰略中,英偉達強調了三大要素:CPU、網絡、軟件和服務。

Grace 是英偉達第一款數據中心 CPU。Grace 和 Grace Hopper 將在明年全面投產,並將擴建數十億美元的新產品線。黃仁勳指,英偉達可以幫助客户建立一個 AI 工廠並創收。

InfiniBand 同比增長了五倍,並作為 AI 工廠的網絡定位為未來的增長引擎

他表示,英偉達擁有人工智能技術、專業知識和規模,可以幫助客户構建定製模型。將其專有數據存儲在 NVIDIA DGX 雲上,並在企業級 NVIDIA AI 企業上部署 AI 應用程序。英偉達本質上是一家人工智能代工廠。英偉達 GPU、CPU、網絡、AI 代工服務和英偉達 AI 企業軟件都是全速增長的引擎。

總結

AMD 在苦苦追趕,有心之人也在設置各種限制來阻擋英偉達將先進芯片發往全世界推動全世界 AI 的發展。科技發展的潮流不可逆,英偉達的缺席將觸發特定地區市場奮發起來開發先進芯片的動力。所以英偉達的優勢未必能一直保持。

黃仁勳認為英偉達不會因為出口限制而致收入在 2024 年見頂,他相信數據中心在 2025 年及之後仍能保持增長,主要因為其大幅擴張供應,並且已經取得全球最廣泛、最龐大和最強大的供應鏈。

他説:“在人們的認知上,GPU 僅僅是一個芯片,而其實 HGX、H100 和 Hopper HGX 擁有 3.5 萬個部件,重 70 磅。這些產品擁有高壓元件、高頻元件和大電流元件,這本身就是一台超級計算機,測試一台超級計算機只能用另一台計算機。製造、測試、運輸和安裝這些產品的流程非常複雜,也因此其 HGX 供應鏈的每個方面都十分複雜。”

這也意味着,英偉達的技術累積為其競爭對手設置了近身門檻,但同時也意味着英偉達要按一些人的要求切割某些地區的供應鏈存在很大的難度。

也許英偉達在短期內仍佔據 AI 發展的優勢,但是不要低估一個奮發圖強、發展迅猛的市場或競爭對手突破技術瓶頸的決心,從長遠來看,英偉達的暫時優勢不一定能一直保持,其高昂估值亦然。

作者:毛婷

本文版權歸屬原作者/機構所有。

當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。