
摩根大通评 Computex 亮点:GPU 一年更新一次,Blackwell 已投产,下一个风口 “物理 AI”

摩根大通预计,从 Hopper H100 到 Rubin Ultra,英伟达 AI 芯片的内存容量至少会涨 7 倍,SK 海力士将从中受益。
本文作者:李笑寅
来源:硬 AI
5 月 29 日周一,英伟达创始人兼 CEO 黄仁勋以主题演讲拉开了 COMPUTEX 大会上的序幕。
6 月 3 日,摩根大通发布研报,总结了黄仁勋主题演讲的几大亮点。
1.发布强大的 AI 芯片路线图,2027 年前每年推出一款新芯片
英伟达概述了其强大的路线图,2027 年前每年推出一款新的 AI 芯片(2024 年推出 Blackwell,2025 年推出配备更多 HBM 的 Blackwell Ultra,2026 年推出 Rubin,2027 年推出配备 HBM 升级版的 Rubin Ultra)。这是一个强有力的路线图,但基本符合市场预期。
除 GPU 外,英伟达还在推进其 Arm CPU 内核(2026 年推出新版本 Vera)、网络能力(Rubin 平台的 NVLink Switch 6 和向 1.6T 网络的迁移)。我们认为,逻辑芯片升级仍可能每两年进行一次(2026 年,Rubin 将在台积电转向 N3P),HBM 升级将在此期间进行。
2.供应链受益者——HBM 迭代最快,先进封装、网络和前沿工艺采用趋势强劲
从供应链的角度来看,HBM 的迭代速度似乎最快,内存容量每年都在增加。我们估计,从 Hopper H100 到 Rubin Ultra,英伟达 AI 芯片的内存容量至少会增长 7 倍(我们预计将从 80GB 增长到 576GB),这是一个非常快的迭代速度,SK 海力士应该会从中受益。
先进封装供应链(ASE、ASMPT)也应受益于复杂性的增加和更高的 HBM 容量,根据我们目前的观点,CoWoS 到 2025 年可能会保持紧张。
对于台积电而言,AI 芯片的前沿应用通常会在新技术节点推出后 1-2 年出现,大多数 AI 芯片将从下半年开始采用 N3。
网络和光学供应链也将受益于加速后的 2 年迭代周期(迭代周期一般为 4-5 年)。由于 BMC(Baseboard Management Controller,一种独立于主处理器的微控制器)含量较高,网卡的采用率较高,这对信驊科技而言是个利好。
3.Blackwell 已经投产,重点主要放在 GB200 配置上
英伟达证实 Blackwell 已经投产,这对市场来说是一个惊喜,因为此前投资者普遍对 Blackwell 的供应链瓶颈存在一些担忧。
与 GTC 主题演讲类似,英伟达还在主题演讲中着重强调了 GB200,这应该会提高投资者对 GB200 产品——鸿海、欣旺达、广达 、Auras、AVC、ASE、ASMPT 和 SK 海力士——的兴趣。
4.加速计算革命仍处于早期阶段
英伟达强调, 我们仍处于加速计算革命的早期,人工智能的基础设施建设仍处于早期阶段。加速产品路线图可能会降低生成式 AI 的成本,推动对大模型的需求,并扩大生成式 AI 的用例。
英伟达没有具体评论 ARM PC 的 NPU 或 CPU,但希望能其 PC OEM(原始设备制造商)厂商合作伙伴能利用独立的 GPU(已安装超过 1 亿个带有张量内核的 GPU)来执行 AI 任务,并成为支持 Copliot+ 的 Windows PC。AI PC 可能会成为华硕和联想等 PC OEM 股的主要驱动力,而微星科技也是英伟达 AI PC 的主要合作伙伴。
5.AI 应用的下一阶段将是物理机器人 AI
英伟达预计,AI 应用的下一阶段将是物理 AI,这将在很大程度上涉及到工业机器人和仿人机器人。从供应链的角度来看,这似乎还为时尚早,不过它可能会为工业自动化的亚洲股票带来一些动力。
本文主要观点来自摩根大通分析师 Gokul Hariharan、Albert Hung、Jay Kwon 于 6 月 3 日发布的研报《Asian Tech Computex takeaways》。

