
加速计算,全球数据中心还要翻一番(英伟达 4QFY24 纪要)
英伟达 (NVDA.O) 北京时间 2 月 22 日凌晨,美股盘后发布 2024 财年第四季度财报(截至 2024 年 1 月):
以下是$英伟达(NVDA.US) 2024 财年四季度的财报电话会纪要,财报解读请移步《英伟达:AI 独秀,是芯片真王》
一、财报核心信息回顾:

二、财报电话会详细内容
2.1、高管层陈述核心信息:
1)FY24Q4 业绩全面大超预期。营收 221 亿美元,环比增长 22%,同比增 265%,高于分析师预期的 204.1 亿美元。净利润 123 亿美元,同比增长 765%,调整后每股收益 5.16 美元,高于分析师预期的 4.59 美元。调整后利润率 76.7%,超出分析师预期 75.4%。其中,数据中心收入 184 亿美元,市场预期 172.1 亿美元。
2)FY25Q1 指引同样大超预期。a) 总收入预计 240 亿,上下浮动 2%。预计数据中心和专业版的环比增长将被游戏的季节性下降部分抵消。GAPP 和非 GAAP 毛利率预计分别为 76.3% 和 77%,上下浮动 50 个基点。与第四季度类似,第一季度的毛利率受益于有利的零部件成本。在第一季度之后,在剩余时间内,我们预计毛利率将恢复到 75% 左右的范围。GAPP 和非 GAAP 费用预计分别约为 35 亿和 25 亿。b) 2025 财年的 GAPP 和非 GAAP 运营费用预计将增长 30% 左右。GAPP 和非 GAAP 其他收入预计约为 1.5 亿,不包括非关联投资的损益。GAPP 和非 GAAP 税率预计为 17%,正负 1%(不包括任何离散项目)。
3)加速计算和生成式 AI 已经达到了引爆点。全球各地的企业、行业和国家需求都在激增,大型云服务商、专门 GPU 提供商、企业软件、消费者互联网公司、汽车金融医疗等垂类行业。去年数据中心大约 40% 的收入来自 AI 推理,且超过一半的数据中心收入来自于大型云提供商。
4)对于下一代(芯片)产品的需求远远超过供应。
5)已开始向中国市场少量供应替代产品。最新财季中国地区数据中心收入占比已降至个位数,一季度预计保持在相近范围。
6)整体供应正在改善,但仍然短缺,供应限制将持续至全年,短期内无法满足需求。
7)供应短缺会导致下一代芯片 B100,预计将于今年晚些时候发货。
2.2、Q&A 分析师问答
Q: 对于 2024 年和 2025 年的数据中心业务预期,过去三个月内有何变化?在数据中心业务中,对于新出现的领域如软件、主权 AI 等,公司有何看法和预期?最近有文章提到 NVIDIA 可能会参与 ASIC 市场,在未来几年里,公司计划如何在这个市场中竞争和发展?
A:从 2024 年到 2025 年以及以后,数据中心业务持续增长的条件都非常优秀。NVIDIA 在加速计算方面处于领先地位,通过加速计算可以显著提高 LNG 效率和数据处理成本,同时保持令人难以置信的速度。随着生成式 AI 的崛起,出现了全新的数据中心类型——AI 生成工厂。每个地区都有自己的语言、知识、历史和文化,因此希望利用自己的数据训练并创建自己的数字智能。这种主权 AI 基础设施正在全球范围内建设,如日本、加拿大和法国等。没有直接回答 NVIDIA 是否参与 ASIC 市场。NVIDIA 的推理(inference)业务部分增长巨大,在数据中心中的占比有 40%。NVIDIA 正在多样化地进入新市场,包括大型 CSP(云服务提供商)仍在继续扩展,同时出现了一个全新的类别——GPU 专业化的 CSP,它们专门提供 NVIDIA AI 基础设施。此外,企业软件平台也在部署 AI 服务,如 ServiceNow、Adobe、SAP 等。
Q:关于从推理(inference)获得的收入占数据中心收入 40% 的数据,这个比例的增长情况?大型语言模型(LLMs)的推理的增长?关于如何测量推理和训练在 GPU 上的使用情况,测量方法的可靠性如何?
A:推荐系统在互联网中起着至关重要的作用,它们负责推荐新闻、视频、音乐和产品等内容给用户。由于互联网上有数万亿的内容,而手机屏幕只有有限的空间,因此推荐系统需要将所有这些信息压缩并展示给用户。过去,推荐系统主要基于 GPU 和 CPU 的方法。然而,随着深度学习的发展,尤其是生成式 AI 的崛起,推荐系统现在直接依赖于 GPU 加速。这包括嵌入、最近邻搜索、重新排序和生成增强信息等步骤。现在,GPU 是推荐系统中不可或缺的一部分,几乎每个大型公司都需要运行这些大型推荐系统。提到了多种生成式模型,如 ChatGPT 和 Mid Journey,以及与公司如 Getty 和 Adobe 的 Firefly 的合作。这些模型在过去的一年里都是全新的,并且正在为消费者生成大量内容。
Q:期望下一代产品会受到供应限制的影响,这是基于什么原因?为什么在 Hopper 供应逐渐宽松的情况下,还会出现供应限制?预计这种供应限制会持续多久? 这些供应限制的研究何时进行?
A: NVIDIA 的整体供应链正在改善,包括从晶圆、封装、内存到各种电源调节器、收发器、网络设备和电缆等组件的供应。NVIDIA 的 Hopper GPU 非常复杂,包含 35,000 个部件,重达 70 磅,被称为 AI 超级计算机是有道理的。数据中心的后部系统非常复杂,包括网络系统的电缆布局,是世界上见过的最密集和复杂的。InfiniBand 业务年同比增长了 5 倍,供应链的支持非常出色。因此,整体供应正在改善,预计需求将继续强劲。每当推出新产品时,都会经历从零到大量生产的增长过程。这不可能一蹴而就,需要逐步增加生产。目前正在推出新一代产品 H200 和 Spectrum-X。在短期内,由于生产爬坡,可能无法满足所有需求。Spectrum-X 是全新的产品,旨在进入以太网市场,与 InfiniBand 相比,它更适合作为扩展系统。InfiniBand 将成为 NVIDIA 专用于 AI 的基础设施,而 Spectrum-X 将是经过优化的 AI 网络。所有新产品的需求都大于供应,这是新产品常见的特点。NVIDIA 的供应量正在稳步增加。
Q:面对需求显著大于供应的情况,NVIDIA 是如何考虑产品的分配的?NVIDIA 及其公司在分配其产品时,是如何考虑跨行业、跨客户(其中许多是竞争对手)的公平性的?如何平衡公司的利益和行业的利益的?
A: NVIDIA 与其客户合作多年,协助他们在云端和内部设置 GPU 实例。许多提供商同时有多个产品来满足其最终客户的各种需求,以及他们内部的需求。提供商会提前考虑所需的新集群,并与 NVIDIA 持续讨论 Hopper 架构以及未来的技术趋势,从而理解需求并预测未来的需求。这是一个持续的过程,涉及提供商将购买的产品、正在构建的产品以及最终客户正在使用的产品。NVIDIA 与其客户建立的关系以及他们对构建复杂性的理解,有助于 NVIDIA 进行产品分配,并改善与其客户的沟通。NVIDIA 与其云服务提供商(CSPs)保持透明,分享产品路线图和过渡信息,使 CSPs 有信心知道何时、何地以及多少数量地放置哪种产品。公司致力于公平分配产品,避免浪费,并寻找机会将合作伙伴和最终用户连接起来。
Q:如何有效地将积压订单转化为实际的收入?NVIDIA 的产品交货时间已经大大缩短,这是否意味着对供应商的财务承诺(如库存购买承诺和预付款)也相应减少?如果将库存、购买承诺和预付款加在一起,看起来总体上有所下降,如何解读?
A:NVIDIA 在库存管理上的策略是,根据他们的分配策略,一旦有新的库存进入,他们会立即努力将其运送给客户。这表明 NVIDIA 重视满足客户的交货时间表。购买承诺包括多个组成部分,既有用于制造的组件,也有可能需要采购的产能。这些组件和产能的采购期限各不相同,有的可能是未来两个季度,有的可能是多年。NVIDIA 的预付款是为了确保他们在几个主要的制造供应商处有预留的产能。这些预付款也是基于不同的期限设计的。尽管 NVIDIA 的库存、购买承诺和预付款的总额看似保持不变,但实际上它们各自具有不同的期限。有时,NVIDIA 需要购买长期供应的组件或需要为其建造的产能,这使得这些款项的期限各不相同。
Q: Colette Kress 曾表示毛利率应该回到 75% 左右的水平,这个预测的背后原因和依据?新产品中包含了高计算密度(HCM)的内容,这是否是影响毛利率预测的一个主要因素,以及除了 HCM 内容外,还有哪些因素可能驱动这个预测?
A:NVIDIA 在 Q4 和 Q1 季度的毛利率相对较高,这主要是因为供应链中组件成本的优化,这涉及到计算和网络业务的多个方面,以及他们制造过程的多个阶段。对于接下来的财年,NVIDIA 预计毛利率将回到 75% 左右的水平,这与他们在 Q4 和 Q1 之前的水平一致。NVIDIA 认为,产品组合的平衡将是他们接下来一年里最大的驱动力。这意味着他们将根据市场需求调整他们的产品线,以最大化利润。
Q:当考虑到过去十年 GPU 计算方面的一百万次改进以及未来类似的改进预期时,客户是如何看待公司现在所做的投资在长期使用中的价值的?也就是说,他们当前的训练集群如何在未来转变为影响力集群?NVIDIA 如何看待这一发展趋势?
A:平台有两个主要特点:加速和可编程性,这是他们能够实现性能大幅提升的原因。公司是唯一一家从非常开始(比如 CNN 和 AlexNet 的初期)就持续支持各种深度学习架构的公司,包括 RLS、Transformers、Vision Transformers、Multi-modality Transformers 等。公司能够发明新的架构和技术,如他们的密集型课程、Transformer 引擎、新的数值格式和处理结构等,这些都在不同的 10 代课程中得到了实现。公司不仅支持其已安装的基础设施,同时还不断将新的软件算法和发明集成到这些基础设施上。公司不仅可以为已安装的基础设施提供软件支持并持续改进,还可以创造全新的技术,如 Hopper Transformer 引擎,并将其实施到未来的产品中。公司的未来产品可能会带来大型语言模型的惊人突破,这些突破部分将通过 CUDA 软件实现,并提供给已安装的基础设施。
Q:在中国市场正在出货的替代解决方案的具体产品是什么?为什么不应该期待其他替代解决方案会进入市场?
A:公司在美国政府的限制下,需要重新配置其产品,以适应中国市场的特殊需求。这些限制主要涉及到最新的加速计算和 AI 技术。公司理解这些限制,并以非软件的方式重新设计了其产品。这需要一定的时间,因此公司重置了其对中国市场的产品供应。公司已经开始向中国的客户发送样品,并计划在这个市场上尽力竞争并取得成功。在这些限制下,公司上个季度的业务显著下滑,因为他们在市场上暂停了发货。尽管他们已经开始在市场上发货,但预计这个季度的业绩将与上个季度相似。公司希望在未来能够全力竞争并尽其所能在市场上取得成功,但具体的结果还需要观察。
Q:软件业务的不同组成部分是什么?这个业务的增长来源?
A:在软件业务上的成功源于加速计算在云端的增长,特别是与云服务提供商的合作。公司与云服务提供商合作,帮助运营和管理自己的业务,并在出现问题时提供大规模的技术支持。软件在加速计算中是至关重要的,这是加速计算与通用计算之间的根本区别。生成式 AI 正在推动每个企业和每个企业软件公司采用加速计算。这是必要的,因为仅仅依赖通用计算已经很难维持改进的吞吐量。我们将负责这些公司的软件堆栈的管理、优化、补丁、调整以及安装基础优化,并将它们容器化到 NVIDIA AI Enterprise 堆栈中。NVIDIA AI Enterprise 被描述为一个运行时环境,类似于操作系统,专门用于人工智能。公司对每个 GPU 每年收费 4,500 美元,预计全球所有在公有云、私有云和本地环境中部署软件的企业和软件公司都将使用 NVIDIA AI Enterprise,特别是对于那些使用 NVIDIA GPU 的公司。这个业务预计在未来会成为一个非常重要的业务。
黄仁勋总结:计算机行业正在同时进行 2 个平台转变 (加速计算与生成式 AI)。价值数万亿美元的数据中心安装基础正在从通用计算转向加速计算。每个数据中心都将得到加速,以便世界能够通过增加吞吐量来满足计算需求,同时管理成本和能源。NVIDIA 实现了令人难以置信的加速,它实现了一种全新的计算范式,即生成式 AI,其中软件可以学习、理解和生成从人类语言到生物结构和 3D 世界的任何信息。我们现在正处于一个新行业的开端,人工智能专用数据中心处理大量原始数据,将其提炼为数字智能。与上一次工业革命的交流发电厂一样,NVIDIA AI 超级计算机本质上也是这次工业革命的 AI 发电厂。每个公司和每个行业从根本上来说都是建立在其专有的商业智能之上,并且在未来,其专有的生成人工智能。生成型人工智能已经启动了一个全新的投资周期,用于建设下一个 1 万亿美元的人工智能生成工厂基础设施。我们相信,这两个趋势将推动未来 5 年内全球数据中心基础设施安装量翻一番,并代表每年数千亿的市场机会。这种新的人工智能基础设施将开辟一个今天不可能实现的全新应用世界。我们与超大规模云提供商和消费者互联网公司一起开启了人工智能之旅。现在,从汽车、医疗保健、金融服务到工业电信、媒体和娱乐,各个行业都参与其中。NVIDIA 的全栈计算平台具有特定行业的应用框架以及庞大的开发者和合作伙伴生态系统,为我们提供了速度、规模和影响力,帮助每个公司、每个行业的公司成为人工智能公司。
在下个月于圣何塞举行的 GTC 上,我们有很多东西要与您分享,所以请务必加入我们。我们期待向您通报下季度的最新进展。
<此处结束>
本文的风险披露与声明:海豚投研免责声明及一般披露



