
谷歌 TPU 如何做大 AI 市场?对英伟达有什么影响?

谷歌 TPU 的出现,本质上不是在 “砍 AI 基建的盘子”,而是在一边分蛋糕,一边把蛋糕做大。
第一,即便没有 TPU,Google 的 AI CapEx 也不会少。
作为科技巨头,Google 在搜索重排、YouTube 推荐、Gemini 等业务上,本来就必须持续砸 AI 基建。没有 TPU,它也得大规模采购英伟达 GPU。TPU 上线之后,自研卡的毛利可以留在集团内部,账面更好看,管理层反而更敢加大长期投入。所以 TPU 更像是:在原有基础上,新增了一种 AI 基建形态,而不是把原来的市场切小了。
第二,自研芯片提升 “算力性价比”,直接拉高总算力需求。
有了 TPU 之后,Google 可以在同样的资本开支下,拿到更多可用算力,推理的边际成本更低。对它来说,就有底气在更多产品里全面铺开大模型:搜索、地图、Gmail、Docs、Android 全家桶……都可以更激进地用大模型增强。结果就是:整体 AI 使用量被推高,算力总需求被拉大,带动整个 “AI 基础设施市场”(数据中心、电力、散热、网络、存储等)一起放大。
第三,TPU 触发了云厂商之间的 “AI 基建军备竞赛”。
当 Google 拿出 TPU 这种自研加速卡时,其他云厂商很难坐得住:AWS 做 Trainium / Inferentia,微软搞 Athena / Maia,国内云也都在推自研 NPU。谁不搞点 AI 基建,谁的云业务就可能被卷死。结果并不是 “有了 TPU,大家都少买 GPU”,而是:为了保住云竞争力,所有厂商都得在 AI 基建上不断砸钱,让整个行业的总 CapEx 进一步上行。
第四,更多 “平台” 意味着更多开发者与更多需求。
TPU 不只是一个芯片,而是连着 XLA、JAX、TF 以及 GCP 上的整套服务。英伟达这边有 CUDA 生态,自研芯片阵营也各自形成平台。平台越多,入口越多,启动 AI 项目的门槛就越低:有的团队习惯上 CUDA + GPU,有的团队直接用 GCP 上的 TPU 服务,还有的基于本土 NPU 起盘。长期看,能成功跑起来的 AI 项目数量只会越来越多,整个需求池被进一步放大。
对英伟达而言:短期是 “分蛋糕”,长期是 “逼它进化”。
短中期看,TPU 肯定会分走一部分原本可能属于英伟达的订单,这是实实在在的竞争压力;但在 AI 总需求被放大的前提下,NVDA 依然有机会吃到最大的那块通用市场。更关键的是,自研芯片的崛起在长期逼着英伟达从 “卖芯片” 升级为 “卖平台”——正如黄仁勋自己说的,现在做的所有投资,都是为了扩大 CUDA 生态。如果英伟达真的能把 CUDA + 各种 AI 软件栈,做成 AI 时代的 “Windows + DirectX” 那样的底层标准,那么哪怕纯硬件毛利被部分稀释,它的护城河反而会因为 “平台化” 被筑得更高。
本文版权归属原作者/机构所有。
当前内容仅代表作者观点,与本平台立场无关。内容仅供投资者参考,亦不构成任何投资建议。如对本平台提供的内容服务有任何疑问或建议,请联系我们。


