
🚨 Jensen Huang 正面回應 TPU 與 Trainium:真正的差距,不在 “能不能做”,而在 “能不能贏”
Dwarkesh 拋出了一個很多人心裏都在想的問題:
如果 Anthropic 的 Claude 和 Google 的 Gemini 都在用 TPU 訓練——
那這對 Nvidia 意味着什麼?
Jensen Huang 的回應非常直接,沒有任何迴避。
“Nvidia 提供的是每單位總成本的最佳性能。沒有對手。”
這句話的重點,不是性能。
而是 “總成本”。
這其實是在重新定義競爭維度。
很多人把問題理解為:
誰能造出 AI 芯片?
但 Jensen 給出的答案是:
關鍵不在 “能不能做”,而在 “有沒有人能在整體效率上贏過 Nvidia”。
他隨後進一步加碼:
“TPU 不會出現。Trainium 也不會出現。沒有人願意站出來。”
這裏提到的 TPU,本質上是 Google 的自研加速器,而 Trainium 則是 Amazon 推出的 AI 訓練芯片。
兩者都已經真實存在。
但 Jensen 的表達方式很有意思——
他不是在否認它們存在,而是在否認它們 “成為主流競爭者” 的可能性。
我更在意的,是他對 “競爭” 的態度。
他並沒有迴避,反而是歡迎。
因為在他的邏輯裏——
只要有人嘗試替代方案,最終都會回到一個問題:
你能不能在真實世界裏,用更低的總成本,跑出同樣甚至更好的結果?
如果答案是否定的,那所有替代路徑都會被市場自然淘汰。
這其實是一種非常典型的 “系統級優勢”。
Nvidia 的護城河,從來不只是芯片本身。
而是一個完整堆棧:
硬件架構
軟件生態(CUDA)
開發者工具
部署效率
規模化供應
當這些疊加在一起時,比較的就不再是單點性能,而是整個系統的 “單位產出成本”。
這也是為什麼,單純討論 TPU 或 Trainium 的算力參數,意義其實有限。
因為真正決定選擇的,是:
整體訓練效率
開發成本
遷移成本
以及生態成熟度
Jensen 的自信,本質上來自這裏——
不是沒人能做芯片。
而是目前還沒有人能在 “整個系統” 層面,複製甚至超越 Nvidia。
這也解釋了他為什麼會 “歡迎競爭”。
因為每一次嘗試替代,實際上都是一次公開的對比實驗。
結果越多,差距越清晰。
所以這件事的關鍵問題,其實不是:
TPU 或 Trainium 會不會存在。
而是:
它們有沒有可能,在真實商業環境中,動搖 Nvidia 的 “總成本優勢”?
這才是這場競爭真正的核心。
如果未來有一天,這個答案開始動搖
那才是結構真正改變的起點。
你更傾向於認為,這種系統級優勢是短期領先,還是一個會持續很長時間的結構壁壘?
本文版權歸屬原作者/機構所有。
當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。




