--- type: "Topics" locale: "zh-CN" url: "https://longbridge.com/zh-CN/topics/39995571.md" description: "🚨 Jensen Huang 正面回应 TPU 与 Trainium:真正的差距,不在 “能不能做”,而在 “能不能赢”Dwarkesh 抛出了一个很多人心里都在想的问题:如果 Anthropic 的 Claude 和 Google 的 Gemini 都在用 TPU 训练——那这对 Nvidia 意味着什么?Jensen Huang 的回应非常直接,没有任何回避。“Nvidia 提供的是每单位总成本的最佳性能。没有对手。”这句话的重点,不是性能。而是 “总成本”。这其实是在重新定义竞争维度。很多人把问题理解为:谁能造出 AI 芯片?但 Jensen 给出的答案是:关键不在 “能不能做”,而在 “有没有人能在整体效率上赢过 Nvidia”。他随后进一步加码:“TPU 不会出现。Trainium 也不会出现。没有人愿意站出来。”这里提到的 TPU,本质上是 Google 的自研加速器,而 Trainium 则是 Amazon 推出的 AI 训练芯片。两者都已经真实存在。但 Jensen 的表达方式很有意思——他不是在否认它们存在,而是在否认它们 “成为主流竞争者” 的可能性。我更在意的,是他对 “竞争” 的态度。他并没有回避,反而是欢迎。因为在他的逻辑里——只要有人尝试替代方案,最终都会回到一个问题:你能不能在真实世界里,用更低的总成本,跑出同样甚至更好的结果?如果答案是否定的,那所有替代路径都会被市场自然淘汰。这其实是一种非常典型的 “系统级优势”。Nvidia 的护城河,从来不只是芯片本身。而是一个完整堆栈:硬件架构软件生态(CUDA)开发者工具部署效率规模化供应当这些叠加在一起时,比较的就不再是单点性能,而是整个系统的 “单位产出成本”。这也是为什么,单纯讨论 TPU 或 Trainium 的算力参数,意义其实有限。因为真正决定选择的,是:整体训练效率开发成本迁移成本以及生态成熟度Jensen 的自信,本质上来自这里——不是没人能做芯片。而是目前还没有人能在 “整个系统” 层面,复制甚至超越 Nvidia。这也解释了他为什么会 “欢迎竞争”。因为每一次尝试替代,实际上都是一次公开的对比实验。结果越多,差距越清晰。所以这件事的关键问题,其实不是:TPU 或 Trainium 会不会存在。而是:它们有没有可能,在真实商业环境中,动摇 Nvidia 的 “总成本优势”?这才是这场竞争真正的核心。如果未来有一天,这个答案开始动摇那才是结构真正改变的起点。你更倾向于认为,这种系统级优势是短期领先,还是一个会持续很长时间的结构壁垒?" datetime: "2026-04-17T11:36:52.000Z" locales: - [en](https://longbridge.com/en/topics/39995571.md) - [zh-CN](https://longbridge.com/zh-CN/topics/39995571.md) - [zh-HK](https://longbridge.com/zh-HK/topics/39995571.md) author: "[辰逸](https://longbridge.com/zh-CN/profiles/16318663.md)" --- # 🚨 Jensen Huang 正面回应 TPU 与 Trainium:真正的差距,不在 “能不能做… ### 相关股票 - [NVDA.US](https://longbridge.com/zh-CN/quote/NVDA.US.md) - [AMZN.US](https://longbridge.com/zh-CN/quote/AMZN.US.md) - [GOOG.US](https://longbridge.com/zh-CN/quote/GOOG.US.md) - [GOOGL.US](https://longbridge.com/zh-CN/quote/GOOGL.US.md)