
Sundar Pichai 最近為英偉達股票投資者傳遞了令人振奮的消息

英偉達的股票從峯值下跌了 12%,原因是市場對中國 DeepSeek 的競爭表示擔憂,該公司聲稱已開發出具有更低計算能力的競爭性人工智能模型。然而,Alphabet 的首席執行官桑達爾·皮查伊向投資者保證,人工智能計算正向推理轉變,這可能會提升對英偉達 GPU 的需求。英偉達預計 2025 財年的收入將創紀錄地達到 1286 億美元,主要來自其數據中心業務,預計在 2026 財年將進一步增長,這取決於人工智能的需求
英偉達(NVDA 2.63%) 的股票目前比歷史最高點下跌了 12%。在 1 月份,由於中國初創公司 DeepSeek 宣稱它使用了僅僅一小部分計算能力就訓練出了一個具有競爭力的人工智能 (AI) 模型,英偉達遭遇了劇烈的拋售。
投資者擔心 DeepSeek 的技術會被其他 AI 開發者採用,從而導致對英偉達高端圖形處理單元 (GPU) 的需求大幅下降,而這些 GPU 是開發 AI 模型的最佳硬件。然而,這些擔憂可能被誇大了。
谷歌母公司 Alphabet(GOOG -0.54%) (GOOGL -0.49%) 是英偉達 AI 數據中心芯片的重要買家,2 月 4 日,其首席執行官 Sundar Pichai 發表了一些評論,這應該會讓英偉達的投資者感到更加安心。
圖片來源:英偉達。
DeepSeek 事件
DeepSeek 於 2023 年由一家成功的中國對沖基金 High-Flyer 成立,該基金多年來一直在使用 AI 構建交易算法。DeepSeek 於 2024 年 12 月發佈了其 V3 大型語言模型 (LLM),隨後在 1 月發佈了其 R1 推理模型,其與 OpenAI 和其他初創公司最新模型的競爭力引發了科技行業的熱議。
由於 DeepSeek 的工作是開源的,行業迅速瞭解到一些重要細節。該初創公司聲稱僅用 560 萬美元(不包括根據 SemiAnalysis 估計的 5 億美元芯片和基礎設施費用)就訓練了 V3,這與 OpenAI 等公司為達到當前開發階段而花費的數百億美元相比,簡直是微不足道。
DeepSeek 還使用了英偉達的舊一代 GPU,如 H100,因為美國政府禁止該芯片製造商向中國公司出售其最新硬件(以保護美國的 AI 領導地位)。
事實證明,DeepSeek 在軟件方面實施了一些獨特的創新,以彌補計算能力的不足。它開發了高效的算法和數據輸入方法,並使用了一種稱為蒸餾的技術,該技術涉及利用已經成功的大型 AI 模型的知識來訓練一個較小的模型。
實際上,OpenAI 指控 DeepSeek 使用其 GPT-4o 模型來訓練 DeepSeek R1,通過大規模提示 ChatGPT 聊天機器人以 “學習” 其輸出。蒸餾可以快速加速訓練過程,因為開發者不必收集或處理大量數據。因此,它也需要更少的計算能力,這意味着需要更少的 GPU。
自然,投資者擔心如果其他所有 AI 開發者都採用這種方法,將會導致對英偉達芯片的需求崩潰。
英偉達正準備迎接創紀錄的 GPU 銷售年
在 2 月 26 日,英偉達將公佈其 2025 財年的財務結果,該財年於 1 月 31 日結束。公司預計總收入將達到 1286 億美元,比去年增長驚人的 112%。最近的季度結果顯示,約 88% 的收入將歸因於其數據中心部門,這得益於 GPU 銷售的激增。
根據華爾街的共識預測(由 Yahoo 提供),英偉達在當前的 2026 財年可能會再創紀錄,總收入有可能達到 1960 億美元。達到這一估計將取決於 AI 開發者對 GPU 的進一步需求,因此很容易理解為什麼投資者對 DeepSeek 的消息感到緊張。
雖然 H100 仍然是熱門產品,但英偉達最新的 GB200 GPU -- 基於其 Blackwell 架構 -- 可以以高達 30 倍的速度進行 AI 推理。推理是 AI 模型吸收實時數據(如聊天機器人提示)併為用户生成輸出的過程。它通常發生在初始訓練階段之後(稍後會詳細介紹)。
GB200 目前是 AI 數據中心的黃金標準,當它在 2024 年底開始向客户發貨時,需求顯著超過供應。
圖片來源:Alphabet。
Sundar Pichai 的回應
Pichai 於 2 月 4 日與華爾街分析師舉行了電話會議,討論 Alphabet 2024 年第四季度的業績。在回應他們的一個問題時,他表示,在過去三年中,計算能力的分配發生了顯著變化,越來越多的計算能力用於推理而非訓練。
Pichai 説,更新的推理模型(如 DeepSeek 的 R1 和 Alphabet 的 Flash Thinking 模型)將進一步加速這一轉變。這些模型在生成響應之前花費更多時間 “思考”,因此需要比其前身顯著更多的計算能力。這個技術術語稱為測試時間擴展,這是 AI 模型在不進行更多預訓練擴展(即向模型輸入大量新數據)的情況下提供更準確的信息的一種方式。
Meta Platforms 首席執行官馬克·扎克伯格也有類似的看法。他最近表示,訓練工作負載的下降並不一定意味着開發者需要更少的芯片,因為能力只是向推理轉移。
最後,Alphabet 告訴華爾街,它計劃在 2025 年投入 750 億美元用於資本支出(capex),其中大部分將用於數據中心基礎設施和芯片。這個數字比其 2024 年的 520 億美元資本支出顯著增加,因此公司顯然並沒有收縮。
總的來説,英偉達 GPU 的需求前景似乎仍然非常穩固。考慮到其股票目前的估值吸引,最近的下跌甚至可能是一個買入機會。

