🚨 Jensen Huang 正面回应 TPU 与 Trainium:真正的差距,不在 “能不能做”,而在 “能不能赢”

Dwarkesh 抛出了一个很多人心里都在想的问题:

如果 Anthropic 的 Claude 和 Google 的 Gemini 都在用 TPU 训练——

那这对 Nvidia 意味着什么?

Jensen Huang 的回应非常直接,没有任何回避。

“Nvidia 提供的是每单位总成本的最佳性能。没有对手。”

这句话的重点,不是性能。

而是 “总成本”。

这其实是在重新定义竞争维度。

很多人把问题理解为:

谁能造出 AI 芯片?

但 Jensen 给出的答案是:

关键不在 “能不能做”,而在 “有没有人能在整体效率上赢过 Nvidia”。

他随后进一步加码:

“TPU 不会出现。Trainium 也不会出现。没有人愿意站出来。”

这里提到的 TPU,本质上是 Google 的自研加速器,而 Trainium 则是 Amazon 推出的 AI 训练芯片。

两者都已经真实存在。

但 Jensen 的表达方式很有意思——

他不是在否认它们存在,而是在否认它们 “成为主流竞争者” 的可能性。

我更在意的,是他对 “竞争” 的态度。

他并没有回避,反而是欢迎。

因为在他的逻辑里——

只要有人尝试替代方案,最终都会回到一个问题:

你能不能在真实世界里,用更低的总成本,跑出同样甚至更好的结果?

如果答案是否定的,那所有替代路径都会被市场自然淘汰。

这其实是一种非常典型的 “系统级优势”。

Nvidia 的护城河,从来不只是芯片本身。

而是一个完整堆栈:

硬件架构

软件生态(CUDA)

开发者工具

部署效率

规模化供应

当这些叠加在一起时,比较的就不再是单点性能,而是整个系统的 “单位产出成本”。

这也是为什么,单纯讨论 TPU 或 Trainium 的算力参数,意义其实有限。

因为真正决定选择的,是:

整体训练效率

开发成本

迁移成本

以及生态成熟度

Jensen 的自信,本质上来自这里——

不是没人能做芯片。

而是目前还没有人能在 “整个系统” 层面,复制甚至超越 Nvidia。

这也解释了他为什么会 “欢迎竞争”。

因为每一次尝试替代,实际上都是一次公开的对比实验。

结果越多,差距越清晰。

所以这件事的关键问题,其实不是:

TPU 或 Trainium 会不会存在。

而是:

它们有没有可能,在真实商业环境中,动摇 Nvidia 的 “总成本优势”?

这才是这场竞争真正的核心。

如果未来有一天,这个答案开始动摇

那才是结构真正改变的起点。

你更倾向于认为,这种系统级优势是短期领先,还是一个会持续很长时间的结构壁垒?

本文版权归属原作者/机构所有。

当前内容仅代表作者观点,与本平台立场无关。内容仅供投资者参考,亦不构成任何投资建议。如对本平台提供的内容服务有任何疑问或建议,请联系我们。