
Sundar Pichai 最近为英伟达股票投资者传递了令人振奋的消息

英伟达的股票从峰值下跌了 12%,原因是市场对中国 DeepSeek 的竞争表示担忧,该公司声称已开发出具有更低计算能力的竞争性人工智能模型。然而,Alphabet 的首席执行官桑达尔·皮查伊向投资者保证,人工智能计算正向推理转变,这可能会提升对英伟达 GPU 的需求。英伟达预计 2025 财年的收入将创纪录地达到 1286 亿美元,主要来自其数据中心业务,预计在 2026 财年将进一步增长,这取决于人工智能的需求
英伟达(NVDA 2.63%) 的股票目前比历史最高点下跌了 12%。在 1 月份,由于中国初创公司 DeepSeek 宣称它使用了仅仅一小部分计算能力就训练出了一个具有竞争力的人工智能 (AI) 模型,英伟达遭遇了剧烈的抛售。
投资者担心 DeepSeek 的技术会被其他 AI 开发者采用,从而导致对英伟达高端图形处理单元 (GPU) 的需求大幅下降,而这些 GPU 是开发 AI 模型的最佳硬件。然而,这些担忧可能被夸大了。
谷歌母公司 Alphabet(GOOG -0.54%) (GOOGL -0.49%) 是英伟达 AI 数据中心芯片的重要买家,2 月 4 日,其首席执行官 Sundar Pichai 发表了一些评论,这应该会让英伟达的投资者感到更加安心。
图片来源:英伟达。
DeepSeek 事件
DeepSeek 于 2023 年由一家成功的中国对冲基金 High-Flyer 成立,该基金多年来一直在使用 AI 构建交易算法。DeepSeek 于 2024 年 12 月发布了其 V3 大型语言模型 (LLM),随后在 1 月发布了其 R1 推理模型,其与 OpenAI 和其他初创公司最新模型的竞争力引发了科技行业的热议。
由于 DeepSeek 的工作是开源的,行业迅速了解到一些重要细节。该初创公司声称仅用 560 万美元(不包括根据 SemiAnalysis 估计的 5 亿美元芯片和基础设施费用)就训练了 V3,这与 OpenAI 等公司为达到当前开发阶段而花费的数百亿美元相比,简直是微不足道。
DeepSeek 还使用了英伟达的旧一代 GPU,如 H100,因为美国政府禁止该芯片制造商向中国公司出售其最新硬件(以保护美国的 AI 领导地位)。
事实证明,DeepSeek 在软件方面实施了一些独特的创新,以弥补计算能力的不足。它开发了高效的算法和数据输入方法,并使用了一种称为蒸馏的技术,该技术涉及利用已经成功的大型 AI 模型的知识来训练一个较小的模型。
实际上,OpenAI 指控 DeepSeek 使用其 GPT-4o 模型来训练 DeepSeek R1,通过大规模提示 ChatGPT 聊天机器人以 “学习” 其输出。蒸馏可以快速加速训练过程,因为开发者不必收集或处理大量数据。因此,它也需要更少的计算能力,这意味着需要更少的 GPU。
自然,投资者担心如果其他所有 AI 开发者都采用这种方法,将会导致对英伟达芯片的需求崩溃。
英伟达正准备迎接创纪录的 GPU 销售年
在 2 月 26 日,英伟达将公布其 2025 财年的财务结果,该财年于 1 月 31 日结束。公司预计总收入将达到 1286 亿美元,比去年增长惊人的 112%。最近的季度结果显示,约 88% 的收入将归因于其数据中心部门,这得益于 GPU 销售的激增。
根据华尔街的共识预测(由 Yahoo 提供),英伟达在当前的 2026 财年可能会再创纪录,总收入有可能达到 1960 亿美元。达到这一估计将取决于 AI 开发者对 GPU 的进一步需求,因此很容易理解为什么投资者对 DeepSeek 的消息感到紧张。
虽然 H100 仍然是热门产品,但英伟达最新的 GB200 GPU -- 基于其 Blackwell 架构 -- 可以以高达 30 倍的速度进行 AI 推理。推理是 AI 模型吸收实时数据(如聊天机器人提示)并为用户生成输出的过程。它通常发生在初始训练阶段之后(稍后会详细介绍)。
GB200 目前是 AI 数据中心的黄金标准,当它在 2024 年底开始向客户发货时,需求显著超过供应。
图片来源:Alphabet。
Sundar Pichai 的回应
Pichai 于 2 月 4 日与华尔街分析师举行了电话会议,讨论 Alphabet 2024 年第四季度的业绩。在回应他们的一个问题时,他表示,在过去三年中,计算能力的分配发生了显著变化,越来越多的计算能力用于推理而非训练。
Pichai 说,更新的推理模型(如 DeepSeek 的 R1 和 Alphabet 的 Flash Thinking 模型)将进一步加速这一转变。这些模型在生成响应之前花费更多时间 “思考”,因此需要比其前身显著更多的计算能力。这个技术术语称为测试时间扩展,这是 AI 模型在不进行更多预训练扩展(即向模型输入大量新数据)的情况下提供更准确的信息的一种方式。
Meta Platforms 首席执行官马克·扎克伯格也有类似的看法。他最近表示,训练工作负载的下降并不一定意味着开发者需要更少的芯片,因为能力只是向推理转移。
最后,Alphabet 告诉华尔街,它计划在 2025 年投入 750 亿美元用于资本支出(capex),其中大部分将用于数据中心基础设施和芯片。这个数字比其 2024 年的 520 亿美元资本支出显著增加,因此公司显然并没有收缩。
总的来说,英伟达 GPU 的需求前景似乎仍然非常稳固。考虑到其股票目前的估值吸引,最近的下跌甚至可能是一个买入机会。

