--- title: "存储猛拉,AI 存力超级周期到底有多神?" description: "在 AI 需求的带动下,存储行业从 HBM 领域延伸至传统存储领域开启了本轮全面上行周期。以美光为例,在存储产品持续涨价的带动之下,公司的毛利率已经到了相对高位。美光公司更是将下季度毛利率指引给到了 66-68%,创出历史新高,这也意味着这轮存储周期的猛烈程度是高于以往的。存储产品的涨价,其实本身也是存储市场供需关系的反应。本轮 “供不应求” 的现象,主要是由 AI 服务器等相关需求的带动..." type: "topic" locale: "zh-CN" url: "https://longbridge.com/zh-CN/topics/37575833.md" published_at: "2026-01-06T11:20:47.000Z" author: "[Dolphin Research](https://longbridge.com/zh-CN/news/dolphin.md)" --- # 存储猛拉,AI 存力超级周期到底有多神? 在 AI 需求的带动下,存储行业从 HBM 领域延伸至传统存储领域开启了本轮全面上行周期。以美光为例,在存储产品持续涨价的带动之下,公司的毛利率已经到了相对高位。**美光公司更是将下季度毛利率指引给到了 66-68%,创出历史新高,这也意味着这轮存储周期的猛烈程度是高于以往的。** 存储产品的涨价,其实本身也是存储市场供需关系的反应。本轮 “供不应求” 的现象,主要是由 AI 服务器等相关需求的带动。在当前对于本轮存储周期上行已是共识的情况下,海豚君将主要围绕以下问题展开: 1)AI 服务器中各类存储都是什么角色,当前 AI 存储面临怎么样的问题? 2)三大原厂重视的 HBM 需求如何,是否存在供需缺口吗? 3)AI 需求爆发的情况下,对传统存储市场的影响如何,供给能跟上吗? AI 浪潮的爆发彻底重塑存储行业格局,带动 HBM、DRAM、NAND、HDD 等全品类存储产品进入全面上行周期。 从供需角度来看:**①需求端,**AI 服务器从训练向推理的重心转移,催生了对 “低延迟、大容量、高带宽” 存储的差异化需求;**②供给端,存储厂商资本开支向高附加值的 HBM 与 DRAM 倾斜,形成结构性供需失衡**,推动产品价格大幅上涨。 本文主要先解答 1 和 2 这两个问题,至于传统市场的影响,海豚君将在下篇中继续展开。 **当前 AI 数据中心领域的核心矛盾是 “内存墙” 瓶颈——算力增长速度远超数据传输速度,导致 GPU 等计算单元空置率高达 99%**。短期来看,**HBM**向 16-Hi 堆叠升级(带宽提升至 16-32TB/s)与**3D 堆叠 SRAM**的商用(延迟压缩至 2ns)形成互补解决方案;中长期则依赖**存算一体架构**的突破,彻底消除数据搬运的速度问题。 **在当前 AI 存储旺盛需求的情况下,HBM 依然是三大原厂最为重视的存储品类,HBM4 也将在 2026 年开启量产。**由于三大原厂(三星、海力士、$美光科技(MU.US) )的资本开支主要投向于 HBM 领域,2026 年 HBM 的供应量有望增长 60% 以上。HBM 需求量受 AI 芯片及 CoWoS 产能的影响,需求量有望提升至 42 亿 GB 左右,**HBM 市场将呈现出 “供应紧平衡” 的状态**。 下文将深入拆解存储层级的核心角色定位、破解**“内存墙”**的技术演进路径,并对**HBM 这一细分市场的供需情况**等**方面展开全景解析,而在下篇文章中将围绕传统市场继续展开,更清晰看到本轮 AI 需求点燃的存储行业超级周期**。 以下是海豚君关于 AI 存力周期及 HBM 市场的详细内容: **一、AI 服务器带来了怎样的存储大周期?** **1.1AI 存储在服务器中的角色:** 回归计算机存储最原始两大性能维度:a. 存储,作为数据仓库,解决是仓库到底有多大的问题;b. 延迟和带宽,解决的是数据存入和取出的速度问题。 按这两个维度,目前整个大存储行业产品大致可以分为四大类——HBM、DRAM、NAND 和 HDD。 其中,HBM 完全基于 AI GPU 而生的全新需求,通过 Cowos 封装技术,是是一个放在 GPU“脑壳” 的产品,延迟极低;而 DRAM(简单理解内存条)读取时间延迟也比较短,是更靠近但独立于算力端(GPU、CPU)的 “热存储”,这两者其实都同属于大类 DRAM;而 HDD 虽然延迟较高,但具有大容量的 “冷存储”。 **各类存储产品在 AI 服务器中都是什么角色呢,具体来看:** **a)HBM:和 GPU 芯片 3D 堆叠在一起,是 GPU 的 “专用显存”,具体高带宽、高功耗的特点,价格也相对较高。**HBM 是**AI 服务器的 “性能天花板”**,决定单 GPU 可承载的模型规模与响应速度。 **b)DRAM(DDR5):是数据交换枢纽,由 CPU 和 GPU 共用,连接着 HBM 与 NAND 的 “桥梁”。**虽然 DDR5 的速度比 HBM 慢一些,但容量大了很多倍。DDR5 是 AI 服务器的 “内存基石”,其容量决定**单服务器可同时处理的任务数,是处理并发任务的核心**。 **c)NAND(SSD):是热数据仓库,**高频访问数据的 “快速持久层”,**连接着 DRAM 与 HDD。作为 AI 数据中心的 “性能 - 容量平衡者”,SSD 是训练数据 “快速补给站”,也是推理服务 “快速响应核心”。** **d)HDD:海量冷数据的低成本容器。**HDD 虽然带宽最低,但具有大容量、成本低的特点,**适合低频使用、长期存放存放的 “冷数据”。HDD 是 AI 数据中心的 “容量基石”,决定整体数据存储规模。** **由此可见,一条很清晰的 AI 服务器数据流动路线:HDD 的冷数据->SSD 预热->DRAM 中转->HBM 配合计算,其中的各个部分在训练和推理服务器中都是所需要的。** **1.2 当前 AI 存储呈现什么样的特点** 本轮存储大周期完全是由 AI 需求带动,因而对 AI 存储的表现也应该主要从下游 AI 服务器的市场情况入手。 和上半年相比,AI 服务器领域明显出现了一些变化: a)AI 从训练向推理迁移: ①训练像是 “一次性投入”,而推理更是商业化落地的 “刚需场景”; ②训练端对性能的要求更高,成本随着性能提升是增加的,而推理具有规模效应,可以通过批量处理来实现成本的摊薄。 在谷歌 Gemini 给出了不差于 GPT 的性能表现后,让市场重新思考英伟达 GPU 领先的性能优势在大模型实际应用中体现并不明显。尤其在当前 AI 向推理端侧重的趋势下,通过大规模化能获得规模优势,定制 ASIC 芯片在推理端也是完全可以胜任的。 **相比于 AI 训练服务器,AI 推理服务器相对更注重于 DDR(并发任务)、SSD(快速响应)和 HDD(大容量)。** **b)算力转向存力:**之前市场关注点主要在算力,认为算力越强大,模型的反应速度也会更快。但其实在算力之外,还是需要存力来 “投喂数据” 的。**如果存储端 “吐数据” 的速度跟不上计算端,就会出现算力 “冗余” 的情况,这也是目前市场中所关心的 “内存墙” 问题。** **“内存墙” 瓶颈:**大模型到推理阶段,需先从 HBM 加载模型权重(GB 级)与 KV 缓存(GB 级)到 GPU 缓存,再执行计算——计算本身仅需微秒级,但数据搬运则需要毫秒级。 **以 H100 为例,HBM 带宽 3.35TB/s,单 Token 的计算时间是 10 微秒,但生成这一个 Token,需要加载整个模型权重,假如是 10GB 模型权重 +20GB KV 缓存,从 HBM 要把这些数据加载到 GPU 的搬运时间大约需要 9 毫秒,计算闲置时间将近 99%,也就是 9 毫秒/(9 毫秒 +0.01 毫秒)。**【其中:空置率=等待时间(数据搬运 + 内核启动)÷全流程耗时×100%】 **1.3 当前现状下,对 AI 存储需求的影响** 从上文来看,AI 服务器当前现状下,也延伸出了对 AI 存储在两个方面的需求变化,一方面是推理服务器对 DDR、SSD 和 HDD 的需求将会相对更多;另一方面是 “内存墙” 的瓶颈,需要压缩传输距离、提高传输速度,进而减少 “等待时间”。 在英伟达收购 Groq 之后,市场中也有 “SRAM 替代 HBM” 的声音(注:GPU 芯片内部有 L1/L2 缓存和寄存器,SRAM 就是 L2 缓存,是连接外部 HBM 的总枢纽。)。 而在 CES 2026 中,黄仁勋也给出了回应,“虽然 SRAM 的速度比 HBM 快很多,但 SRAM 的容量还是偏小的(相较于 HBM)”。 由此推测,海豚君认为即使 SRAM 开启量产,仍将主要是以 “SRAM+HBM” 的形式,并不会在短期内实现对 HBM 的替代。 **针对于 “内存墙”,目前主要有三个方法来应对:** **①HBM(提高传输速度):拉堆叠层数,从 12-Hi 往 16-Hi 升级,**在存储容量提升的同时,传输速度有望从 B300(8TB/s)提升至 16-32TB/s,**从而减少数据排队等待时间;** **②SRAM(压缩传输距离):3D 堆叠 SRAM 通过垂直堆叠多层 SRAM 芯粒,将 KV 缓存、模型轻量权重直接放在计算单元 “随身口袋”(片上或近片存储)。**等到 SRAM 量产后**,将转为 “SRAM+HBM” 的形式(SRAM 负责 “快”,HBM 负责 “多”),这有望将延迟从 100ns 大幅缩短至 2ns 附近。** **正如近期英伟达收购 Groq,就是看重其 3D SRAM 方面的能力,当前该领域的核心厂商有台积电、Groq、三星等。**按市场预期,在 2026 年下半年英伟达下一代的 Rubin 芯片中有望融入 Groq 技术,从而实现存力端的提速。 **③存算一体:主要嵌入把部分算力嵌入存储内部,**从而实现算力冗余的消除、存力效率和能效比的提升**。**目前尚未在数据中心场景实现落地,按预期在 2027 年及之后有望逐渐成为解决 “内存墙” 困扰的一个途径。 数据中心及 AI 当前阶段的重心已经从算力逐渐转向存力,而在遇到的 “内存墙” 问题中,HBM 迭代升级和 SRAM 的应用,将是短期内减少 “等待时间” 的有效方式。**中长期角度来看,打造 “存算一体” 的产品未来会成为解决 “内存墙” 问题更好的 “答案”。** **附:英伟达收购 Groq,主要是对人才的收购,同时获得 Groq 全部核心 IP(LPU 架构、TSP 微架构、编译器技术)与硬件资产使用权**。Groq 创始人 Jonathan Ross(谷歌 TPU 创始成员)及 90% 核心工程团队加入英伟达,由 Simon Edwards 接任 Groq 新 CEO。 **这一方面能通过融合 SRAM 技术,从而提升英伟达在 AI 推理方面的能力;另一方面也是一次防御性收购,避免 Groq 相关技术落入到了其他竞争对手之中**。 **二、HBM 市场:升级至 HBM4,供需紧平衡** **AI 进入推理落地阶段,“内存墙” 困境难解的情况下,HBM 依然是缓解 “等待时间” 的一个有效方式。**因而,当前三大存储原厂(三星、海力士、美光)将资本开支的重心依然投向于 HBM 领域。 受益于 AI 需求的影响,HBM 是其中最为直接的增量需求( “从无到有” 的需求创造)。由于 HBM 基本都是搭载在 AI 芯片上配套出货,**那么 HBM 的需求量也是与 AI 芯片的出货情况直接挂钩**。 从当前主流的 AI 芯片(英伟达、谷歌、AMD)来看,基本都搭载了 HBM3E。在三星的 HBM3E 通过英伟达认证之后,也已经跟了上来。目前三家厂商都开始对 HBM4 进行送样,当 HBM4 顺利量产,下一代 AI 旗舰芯片也将陆续配备新一代的 HBM4 产品。 **虽然 HBM 是 AI 服务器率先带动的需求,但 HBM 的供需状况却不是最紧张的**,而其中的一部分原因正是**存储厂商近年来高增的资本开支主要都投向于 DRAM,尤其是高端产线 HBM 的扩产**。 **这在核心厂商的表态中也能看出**,**①海力士:**投入增加以应对 M15x 的 HBM4 产能扩张;**②三星:**投入将主要用于 HBM 的 1c 制程渗透及小幅增加 P4L 晶圆产能;**③美光:**专注于 1gamma 制程渗透和 TSV 设备建置。 **2.1 HBM 供给端:产能->产量** **HBM 的主要供应商来自于海力士、三星和美光这三家公司,**HBM 市场的供应量也将主要取决于三家公司的 HBM 产能情况。 从上文中能看到,存储厂商的资本开支主要集中在 HBM 领域,这也带来了 HBM 产能端的快速爬坡。**根据公司情况及行业面信息,当前三家公司合计 HBM 的月产能约为 39 万片左右。其中海力士和三星的产能相对领先,而美光的产能规模相对较少**。 随着三家核心厂商的资本投入继续增加,**HBM 的月产能至 2026 年末有望继续提升至 51 万片左右**,年增 12 万片左右的产能。 **值得注意的是,HBM 的产能情况并不等于出货量表现。参考三星,它的 HBM 产能虽然相对较高,但由于公司在 HBM3E 工艺中良率偏低并迟迟未能实现对英伟达的供货,因而三星的 HBM 实际出货量的占比下滑至了 3 成以下。** 当前 HBM 市场的份额中,海力士占据将近一半的份额,而美光和三星相对接近。而**随着三星的 HBM3E 产品在四季度获得了英伟达的认证,三星公司的 HBM 产能利用率和出货份额也将有所回升,有望实现了对美光的反超**。 对于 HBM 供应端的测算,主要结合产能和良率来估算。因为 HBM 基本由三大核心厂商(海力士、美光、三星)垄断,HBM 的产能部分也将主要考虑这三家公司的情况。 **从上文的三家公司合计产能来看,2025 年四季度的 HBM 月产能约为 39 万片,至 2026 年四季度 HBM 的月产能有将达到 51 万片。考虑到产能爬坡因素,海豚君预估 2026 年 HBM 的合计总产能有望达到 543 万片。** 由于单片 12 寸晶圆(直径 300mm),大约能切割出 514 颗等效 3GB 的 HBM 颗粒(考虑切割及边角料损失)。 那么 543 万片的 HBM 产能大约能切出 27.9 亿颗的 HBM 颗粒(等效 3GB),在 50% 综合良率的情况下,**2026 年三家核心厂商大致能提供 41.9 亿 GB 的 HBM 供应量。** **2.2 HBM 需求端:CoWoS->AI 芯片->HBM** **因为 HBM 基本都配备在 AI 芯片之上,而 AI 芯片又都需要 CoWoS 封装。因此在对 HBM 需求量的估算中,将具体通过 “CoWoS->AI 芯片->HBM” 的方式进行。** 结合行业及市场预期的情况看,在 2026 年的 CoWoS 分配中英伟达仍占据着最大的份额(占据总量的一半以上),谷歌、AMD 和亚马逊也是 CoWoS 较大的下游客户。**假定下图中所列的核心客户占据了 90% 的 CoWoS 需求,那么全球 CoWoS 在 2026 年的全年需求量大约在 128 万片左右。** **在 CoWoS 量的基础上,再来测算 AI 芯片的出货量。**以英伟达 B300 为例,由于单个 CoWoS 封装晶圆面积大约能得到 14 个左右 B300 芯片(28 个裸芯),那么 B300 的 35 万片 CoWoS 产能分配大致对应 490 万个 B300 芯片。 **单个 B300 芯片配备 8 个 HBM3E,而每个 HBM3E 都为 36GB 的容量,因而单个 B300 需要 288GB 的 HBM3E。那么 490 万个 B300 芯片,则需要 14 亿 GB 的 HBM**。 **将谷歌、AMD 等各家的 AI 芯片都以此方式来预估,可以得到 2026 年全年的 128 万片 CoWoS 产能大致对应了 42 亿 GB 的 HBM 需求量**。 **HBM 的迭代升级是短期内缓解 “内存墙” 的方式之一,综合上述 HBM 的供应量(41.9 亿 GB)和需求量(42.1 亿 GB)来看,2026 年的 HBM 市场是相对紧张的,这主要是在三大存储原厂大力扩产之下,呈现出了紧平衡的状态。** **本文主要介绍了各类存储在 AI 服务器中的角度以及 HBM 的供需情况,而下篇文章中将继续围绕 AI 对传统存储领域的影响展开。** <此处结束> 海豚君近期关于存储类的相关文章回溯: 财报季 2025 年 12 月 18 日电话会《[美光(分析师小会):现金优先用于扩大生产,HBM4 良率爬坡更快](https://longportapp.cn/zh-CN/topics/37222356)》 2025 年 12 月 18 日电话会《[美光(纪要):毛利率继续提升,幅度会放缓](https://longportapp.cn/zh-CN/topics/37220965)》 2025 年 12 月 18 日财报点评《[美光 MU:AI 点燃存力,存储大周期启幕?](https://longportapp.cn/zh-CN/topics/37220394)》 本文的风险披露与声明:[海豚君免责声明及一般披露](https://support.longbridge.global/topics/misc/dolphin-disclaimer) ### Related Stocks - [GPUS.US - Hyperscale Data](https://longbridge.com/zh-CN/quote/GPUS.US.md) - [HBM.US - Hudbay Minerals](https://longbridge.com/zh-CN/quote/HBM.US.md) - [MU.US - 美光科技](https://longbridge.com/zh-CN/quote/MU.US.md) - [PIM.US - Putnam Master Intermediate Income Trust](https://longbridge.com/zh-CN/quote/PIM.US.md) - [SSNGY.US - 三星电子](https://longbridge.com/zh-CN/quote/SSNGY.US.md) - [SSD.US - Simpson制造](https://longbridge.com/zh-CN/quote/SSD.US.md) - [GPUS-D.US - HYPERSCALE DATA INC 13.00%CUM RED PER PREF STK SER D USD25](https://longbridge.com/zh-CN/quote/GPUS-D.US.md) --- > **免责声明**:本文内容仅供参考,不构成任何投资建议。