🚨 Jensen Huang 正面回應 TPU 與 Trainium:真正的差距,不在 “能不能做”,而在 “能不能贏”

Dwarkesh 拋出了一個很多人心裏都在想的問題:

如果 Anthropic 的 Claude 和 Google 的 Gemini 都在用 TPU 訓練——

那這對 Nvidia 意味着什麼?

Jensen Huang 的回應非常直接,沒有任何迴避。

“Nvidia 提供的是每單位總成本的最佳性能。沒有對手。”

這句話的重點,不是性能。

而是 “總成本”。

這其實是在重新定義競爭維度。

很多人把問題理解為:

誰能造出 AI 芯片?

但 Jensen 給出的答案是:

關鍵不在 “能不能做”,而在 “有沒有人能在整體效率上贏過 Nvidia”。

他隨後進一步加碼:

“TPU 不會出現。Trainium 也不會出現。沒有人願意站出來。”

這裏提到的 TPU,本質上是 Google 的自研加速器,而 Trainium 則是 Amazon 推出的 AI 訓練芯片。

兩者都已經真實存在。

但 Jensen 的表達方式很有意思——

他不是在否認它們存在,而是在否認它們 “成為主流競爭者” 的可能性。

我更在意的,是他對 “競爭” 的態度。

他並沒有迴避,反而是歡迎。

因為在他的邏輯裏——

只要有人嘗試替代方案,最終都會回到一個問題:

你能不能在真實世界裏,用更低的總成本,跑出同樣甚至更好的結果?

如果答案是否定的,那所有替代路徑都會被市場自然淘汰。

這其實是一種非常典型的 “系統級優勢”。

Nvidia 的護城河,從來不只是芯片本身。

而是一個完整堆棧:

硬件架構

軟件生態(CUDA)

開發者工具

部署效率

規模化供應

當這些疊加在一起時,比較的就不再是單點性能,而是整個系統的 “單位產出成本”。

這也是為什麼,單純討論 TPU 或 Trainium 的算力參數,意義其實有限。

因為真正決定選擇的,是:

整體訓練效率

開發成本

遷移成本

以及生態成熟度

Jensen 的自信,本質上來自這裏——

不是沒人能做芯片。

而是目前還沒有人能在 “整個系統” 層面,複製甚至超越 Nvidia。

這也解釋了他為什麼會 “歡迎競爭”。

因為每一次嘗試替代,實際上都是一次公開的對比實驗。

結果越多,差距越清晰。

所以這件事的關鍵問題,其實不是:

TPU 或 Trainium 會不會存在。

而是:

它們有沒有可能,在真實商業環境中,動搖 Nvidia 的 “總成本優勢”?

這才是這場競爭真正的核心。

如果未來有一天,這個答案開始動搖

那才是結構真正改變的起點。

你更傾向於認為,這種系統級優勢是短期領先,還是一個會持續很長時間的結構壁壘?

本文版權歸屬原作者/機構所有。

當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。