
打造 AI 代工厂,英伟达的逻辑是什么?

$NVIDIA(NVDA.US) 公布了一份超越预期的第 3 财季业绩。
截至 2023 年 10 月末止的 2024 财年第 3 季,英伟达的收入同比大增 205.51%,按季增长 34.15%,至 181.2 亿美元;非会计准则净利润按年大增 588.19%,至 100.2 亿美元。
季度毛利率达到 73.95%,非会计准则毛利率为 74.96%,主要受到数据中心销售额增加,以及库存降低所带动,值得留意的是,上年同期这两项数据分别为 53.57% 和 56.13%,显见今年的表现有明显改善。
英伟达预计第 4 财季的收入将达到 200 亿美元,算力和网络需求的持续强劲将带动其数据中心的强劲增长。不过游戏业务收入将可能较第 3 财季下降,主要因为季节因素。预计毛利率和非会计准则毛利率分别为 74.5% 和 75.5%。
这一收入预测规模又再上一层楼,比已创新高的第 3 财季收入 181.2 亿美元再高出 10.38%,毛利率预测也要高于当前已很高的水平,可见英伟达的下一个财季表现将更加出色。
然而,尽管业绩与业绩指引都十分乐观,英伟达的股价在公布业绩前创下纪录新高后反而掉头向下。财华社认为主要原因是资金在公布业绩之后获利回吐,出口限制可能影响到其 20%-25% 的收入,美股市场最近持币避风的趋势明显等因素影响。
英伟达 VS.美国超微公司
同为 GPU 龙头,曾因加密货币大跌而踩空的英伟达,成功地凭借 AI 芯片翻身,目前或占据生成式 AI 芯片逾八成市场份额。
同行$Arm(ARM.US) (下称 AMD)也紧随其后,不过慢起步的 AMD 可能要到明年才成火候,估计今年的收入仍会收缩。
从估值上来看,得益于这几个季度 AI 芯片的强劲需求,英伟达的收入大幅增长,利润也显著提高。今年以来,其股价累计涨幅达到两倍以上,紧贴其收益增长的预期。
随着这两个季度的利润大幅攀升,英伟达当前市值相对其最近 12 个月非会计准则净利润的差距缩小,市盈率从年初时上百倍,到如今 55.59 倍,与 AI 芯片尚未为业绩发力的 AMD 差距也拉小。
需要注意的是,在英伟达的 AI 芯片 H100 供不应求之际,AMD 也推出了要与其一较高低的 AI 产品 AI300,而且透露Instinct MI300A 和 MI300X GPU 于第 4 季量产推进顺利。
AMD 在第 3 财季业绩发布会上指出,其 AI 的进展较预期理想,预计第 4 季数据中心 GPU 收入约为 4 亿美元,到 2024 年将超过 20 亿美元。MI300 有望成为 AMD 历史上在最短时间内达到销售额上十亿美元的产品。
不过,从 AMD 的业绩指引来看,AI 的强劲发展或尚未在第 4 财季获反映,要到 2024 财年才能体现在业绩上,也因此其市盈率估值与英伟达存在差距。
英伟达则不然,从上图可见,其收入与非会计准则净利润以前所未见的加速度攀升。
AI 芯片推动了英伟达的强劲增长
第 3 财季,英伟达的数据中心收入贡献最大,占到 80.10%,季度收入按年大增 278.66%,按季增长 40.60%,至 145.14 亿美元,主要得益于基于 Hopper Tensor Core GPU 架构的 NVIDIA HGX 平台的持续增长,以及 InfiniBand 端到端网络的推动。
最近两个季度,在全世界都在布局生成式 AI 的热浪之中,英伟达的数据中心收入大幅攀升,见下图。
NVIDIA HDX 与 InfiniBand 一起,本质上是 AI 超级计算机和数据中心基础设施的参考架构。Adobe, Firefly, ChatGPT, Microsoft 365 Copilot, CoAssist, Now Assist with ServiceNow 和 Zoom AI Companion 等的生成式 AI 应用程序是在英伟达上构建和运行的。
在训练和推理大型语言模型、深度学习推荐系统和生成式人工智能应用等基础设施方面的投资,推动了客户对英伟达加速计算的广泛强劲需求,也因此其数据中心与以 InfiniBand 为首的网络收入大幅增长。
推理现在是英伟达 AI 计算的主要工作负载。消费互联网公司推动了第 3 季的增长,构成了数据中心大约一半的收入,增速也跑赢整体增速。Meta(META.US)等公司正在全面开发学习推荐系统,并投资于 AI,以帮助广告商优化图像和文本。大多数主要的消费互联网公司都在竞相加快生成式人工智能的部署。
企业开启了 AI 部署的竞赛。Adobe、Databricks、Snowflake 和 ServiceNow 等企业软件公司正在添加它们的 AI 助手。有更多的企业正开发适用于垂直产业应用的定制化 AI,例如特斯拉(TSLA.US)。本季度,云服务提供商大约贡献了其数据中心营收的另一半。
英伟达的首席财务官科莱特·克雷斯(Colette Kress)在业绩发布会上指出,所有超大规模 CSP(通信服务提供商)以及全球范围内越来越多的 GPU 专用 CSP 都有需求,这些 CSP 正在迅速增加投资,以把握 AI 领域的新市场机遇。
她指出,NVIDIA H100 Tensor Core GPU 实例现在几乎可以在每个具有实例和高需求的云中使用。英伟达今年各个季度都大幅增加了供应,以满足强劲的需求,预计明年还会持续。她表示,明年还会以更快的节奏发布更多产品,以满足不断增长和多样化的 AI 机遇。
从产品的角度来看,其第 3 财季的绝大部分收入来自基于 Hopper GPU 架构的 NVIDIA HGX 平台,上一代 Ampere GPU 架构的贡献较小。为行业标准服务器构建的新型 L40 GPU 开始交付,可支持跨各种客户的训练和推理工作负载。这也是英伟达 GH 200 Grace Hopper 秘密芯片的第一个收入季度,它结合了基于 ARM(ARM.US)的 Grace GPU 和 Hopper GPU。
值得留意的是,Grace 和 Hopper GPU 正在开发一条价值数十亿美元的新产品线。Grace Hopper 可用于 GPU 专用云供应商,很快就会进入甲骨文云(Oracle Cloud)。Grace Hopper 也很受超级计算客户欢迎,在第 3 季,LaSalle、Localimos、国家实验室和瑞士国家超级计算中心开始了首批系统出货。英国也宣布将建造世界上最快的 AI 超级计算机之一 Isambard-AI,该计算机将使用近 5500 颗 Grace Hopper 超级芯片。德国超算中心也宣布将使用接近 2.4 万颗 Grace Hopper 超级芯和 Quantum 2 InfiniBand,打造新一代 AI 超级计算机。
因此,英伟达预计明年美国、欧洲和日本所有基于 Grace Hopper 打造的超级计算机合计 AI 算力将超过 200 亿次/秒,未来还会有更多。这都对其数据中心的收入带来了很大的提升,现在用于深度学习、推荐、服务聊天机器人、助手和文本图形生成的 AI 已经全面投入生产,也将带动更多的 AI 部署需求。
英伟达发布了 Hopper 系列的新品 BH 200,这是第一款提供 HBM3E(高带宽存储)、更快捷、更大内存的 GPU,可进一步加速生成式 AI 和大模型。
与运行大语言模型(如 Lambda2)的 H100 GPU 相比,它将推理能力提高了 2 倍。结合起来,TensorRT LLM 和 H200 在短短一年内提高了性能或降低 4 倍的成本。
与 H100 相比,H200 为 GPT-3 等推理模型提供了 18 倍的性能提升,允许客户迁移到更大的模型,而不会增加延迟。
从明年开始,亚马逊(AMZN.US)的云、谷歌云、微软(MSFT.US)Azure 和甲骨文云将成为首批提供 H200 基础实例的 CSP。
在上周的微软的 Ignite 大会上,英伟达深化并扩大了与微软的合作。
英伟达推出了一个 AI 代工服务,开发和调试在 Azure 上运行的定制生成式 AI 企业应用。客户可以使用自己的主域知识和专有数据,英伟达则利用其 AI 专业知识和 DGX 云的软件堆栈帮助他们构建 AI 模型,以确保企业的数据安全,同时又能为其提供支持。
英伟达的网络业务年收入也超出 100 亿美元,主要受到 InfiniBand 强劲需求的带动,InfiniBand 对于取得训练 LLM 所需的规模和性能至关重要。
在软件和服务方面,英伟达预计年收有望达到 10 亿美元规模,在企业 AI 训练和 AI 推理的需求急增带动下,其 DGX 云服务和英伟达 AI 企业软件都具有增长机会。
游戏收入按年增长超 80%,按季增长 15%,至 28.6 亿美元,主要受到返学购物季需求强劲的推动。
汽车分部收入同比增长 4%,环比增长 3%,至 2.61 亿美元,主要得益于基于英伟达驱动或 SoC(系统级芯片)的自动驾驶平台的持续增长,以及与全球 OEM 客户合作的 AI 驾驶舱解决方案的需求增长。英伟达扩展了富士康的合作,将其新一代汽车系统级芯片 NVIDIA Drive 4 也加入到合作范围。
出口限制的影响
在第 3 财季末,美国政府宣布了针对一些市场的出口限制措施。这些限制措施要求,英伟达的多款产品 Hopper 和 MPIR 100 及 800 系列等,都需要取得出口牌照。
据英伟达管理层透露,目前其销往受影响目的地的收入大约占其过去几个季度数据中心收入的 20%-25%。
英伟达预计,在第 4 季,其销往这些目的地的收入将显著下降,但其他地区的强劲增长应足以弥补这些影响。美国允许其工业界向包括受限制区域在内全球市场提供数据中心计算产品。
简单来说,美国对于最先进的产品设定了出口管制,而对于性能较低的产品,则通行无阻。有鉴于此,英伟达表示正努力扩张数据中心产品组合为各个监管类别提供适用的解决方案,以满足监管要求。
英伟达表示正在与中国和中东的一些客户合作,向美国申请许可证。现在还不清楚这是否会对收入构成重大影响。许多国家开始意识到,需要投资自主的人工智能基础设施,以支持经济增长和产业创新。
“黄教主” 的 AI 远望
CEO 黄仁勋对英伟达的产业发展始终保持着创业者般的热情,而且对于创新科技的远见也十分独到,有着 “教主” 之称。
现在全世界都在关注 AI 的发展,自然少不了要向黄仁勋请教作为 AI 先驱的英伟达,未来的发展路径向着哪个方向。
在业绩发布会上,黄仁勋提到,软件行业将是 AI 影响最大的产业之一,在过去,开发手动使用的工具市场价值达万亿美元。现在,无需人类手动操作,全新的 AI 助手能够帮助人类使用这些软件。所以有别于过去授权软件,英伟达未来要将这些辅助系统连接到 AI 之中,这将成为新一代软件。
因此,软件的转变和软件的工作方式正驱动着底层的硬件,这正以两种方式转变,这种转变独立于生成式 AI:
一种与加速算力有关,通用算力很浪费能源和成本,而现在有加速算力,可以节省很多能源和时间。
这就需要一种新型的数据中心,这种新型数据中心与英伟达占了三分之一的传统数据中心不一样。传统数据中心有很多应用程序运行,由很多人使用,这些人是不同的租户,他们使用相同的基础设施,通过数据中心存储了很多文件。而新型数据中心的应用非常少,它处理数据、训练模型、生成代币、创建 AI,可称这类新数据中心为 AI 工厂。现在每个国家都在兴建主权 AI 工厂,这或将是未来的一个新趋势。
AI 工厂运行 AI 助手,这是重要软件 TAM(潜在市场)的延伸,推动了重要的投资,并扩张价值万亿的传统数据中心市场,引发了 AI 的产业变革。
而配备 InfiniBand 和 NVIDIA AI 软件堆栈的 NVIDIA H100 HGX 现在定义了一个 AI 工厂。在扩大供应链以满足全球需求的同时,英伟达也在为下一波 AI 浪潮打造新的增长动力。在其新增长战略中,英伟达强调了三大要素:CPU、网络、软件和服务。
Grace 是英伟达第一款数据中心 CPU。Grace 和 Grace Hopper 将在明年全面投产,并将扩建数十亿美元的新产品线。黄仁勋指,英伟达可以帮助客户建立一个 AI 工厂并创收。
InfiniBand 同比增长了五倍,并作为 AI 工厂的网络定位为未来的增长引擎。
他表示,英伟达拥有人工智能技术、专业知识和规模,可以帮助客户构建定制模型。将其专有数据存储在 NVIDIA DGX 云上,并在企业级 NVIDIA AI 企业上部署 AI 应用程序。英伟达本质上是一家人工智能代工厂。英伟达 GPU、CPU、网络、AI 代工服务和英伟达 AI 企业软件都是全速增长的引擎。
总结
AMD 在苦苦追赶,有心之人也在设置各种限制来阻挡英伟达将先进芯片发往全世界推动全世界 AI 的发展。科技发展的潮流不可逆,英伟达的缺席将触发特定地区市场奋发起来开发先进芯片的动力。所以英伟达的优势未必能一直保持。
黄仁勋认为英伟达不会因为出口限制而致收入在 2024 年见顶,他相信数据中心在 2025 年及之后仍能保持增长,主要因为其大幅扩张供应,并且已经取得全球最广泛、最庞大和最强大的供应链。
他说:“在人们的认知上,GPU 仅仅是一个芯片,而其实 HGX、H100 和 Hopper HGX 拥有 3.5 万个部件,重 70 磅。这些产品拥有高压元件、高频元件和大电流元件,这本身就是一台超级计算机,测试一台超级计算机只能用另一台计算机。制造、测试、运输和安装这些产品的流程非常复杂,也因此其 HGX 供应链的每个方面都十分复杂。”
这也意味着,英伟达的技术累积为其竞争对手设置了近身门槛,但同时也意味着英伟达要按一些人的要求切割某些地区的供应链存在很大的难度。
也许英伟达在短期内仍占据 AI 发展的优势,但是不要低估一个奋发图强、发展迅猛的市场或竞争对手突破技术瓶颈的决心,从长远来看,英伟达的暂时优势不一定能一直保持,其高昂估值亦然。
作者:毛婷
The copyright of this article belongs to the original author/organization.
The views expressed herein are solely those of the author and do not reflect the stance of the platform. The content is intended for investment reference purposes only and shall not be considered as investment advice. Please contact us if you have any questions or suggestions regarding the content services provided by the platform.


