--- title: "存儲猛拉,AI 存力超級週期到底有多神?" description: "在 AI 需求的帶動下,存儲行業從 HBM 領域延伸至傳統存儲領域開啓了本輪全面上行週期。以美光為例,在存儲產品持續漲價的帶動之下,公司的毛利率已經到了相對高位。美光公司更是將下季度毛利率指引給到了 66-68%,創出歷史新高,這也意味着這輪存儲週期的猛烈程度是高於以往的。存儲產品的漲價,其實本身也是存儲市場供需關係的反應。本輪 “供不應求” 的現象,主要是由 AI 服務器等相關需求的帶動..." type: "topic" locale: "zh-HK" url: "https://longbridge.com/zh-HK/topics/37575833.md" published_at: "2026-01-06T11:20:47.000Z" author: "[Dolphin Research](https://longbridge.com/zh-HK/news/dolphin.md)" --- # 存儲猛拉,AI 存力超級週期到底有多神? 在 AI 需求的帶動下,存儲行業從 HBM 領域延伸至傳統存儲領域開啓了本輪全面上行週期。以美光為例,在存儲產品持續漲價的帶動之下,公司的毛利率已經到了相對高位。**美光公司更是將下季度毛利率指引給到了 66-68%,創出歷史新高,這也意味着這輪存儲週期的猛烈程度是高於以往的。** 存儲產品的漲價,其實本身也是存儲市場供需關係的反應。本輪 “供不應求” 的現象,主要是由 AI 服務器等相關需求的帶動。在當前對於本輪存儲週期上行已是共識的情況下,海豚君將主要圍繞以下問題展開: 1)AI 服務器中各類存儲都是什麼角色,當前 AI 存儲面臨怎麼樣的問題? 2)三大原廠重視的 HBM 需求如何,是否存在供需缺口嗎? 3)AI 需求爆發的情況下,對傳統存儲市場的影響如何,供給能跟上嗎? AI 浪潮的爆發徹底重塑存儲行業格局,帶動 HBM、DRAM、NAND、HDD 等全品類存儲產品進入全面上行週期。 從供需角度來看:**①需求端,**AI 服務器從訓練向推理的重心轉移,催生了對 “低延遲、大容量、高帶寬” 存儲的差異化需求;**②供給端,存儲廠商資本開支向高附加值的 HBM 與 DRAM 傾斜,形成結構性供需失衡**,推動產品價格大幅上漲。 本文主要先解答 1 和 2 這兩個問題,至於傳統市場的影響,海豚君將在下篇中繼續展開。 **當前 AI 數據中心領域的核心矛盾是 “內存牆” 瓶頸——算力增長速度遠超數據傳輸速度,導致 GPU 等計算單元空置率高達 99%**。短期來看,**HBM**向 16-Hi 堆疊升級(帶寬提升至 16-32TB/s)與**3D 堆疊 SRAM**的商用(延遲壓縮至 2ns)形成互補解決方案;中長期則依賴**存算一體架構**的突破,徹底消除數據搬運的速度問題。 **在當前 AI 存儲旺盛需求的情況下,HBM 依然是三大原廠最為重視的存儲品類,HBM4 也將在 2026 年開啓量產。**由於三大原廠(三星、海力士、$美光科技(MU.US) )的資本開支主要投向於 HBM 領域,2026 年 HBM 的供應量有望增長 60% 以上。HBM 需求量受 AI 芯片及 CoWoS 產能的影響,需求量有望提升至 42 億 GB 左右,**HBM 市場將呈現出 “供應緊平衡” 的狀態**。 下文將深入拆解存儲層級的核心角色定位、破解**“內存牆”**的技術演進路徑,並對**HBM 這一細分市場的供需情況**等**方面展開全景解析,而在下篇文章中將圍繞傳統市場繼續展開,更清晰看到本輪 AI 需求點燃的存儲行業超級週期**。 以下是海豚君關於 AI 存力週期及 HBM 市場的詳細內容: **一、AI 服務器帶來了怎樣的存儲大週期?** **1.1AI 存儲在服務器中的角色:** 迴歸計算機存儲最原始兩大性能維度:a. 存儲,作為數據倉庫,解決是倉庫到底有多大的問題;b. 延遲和帶寬,解決的是數據存入和取出的速度問題。 按這兩個維度,目前整個大存儲行業產品大致可以分為四大類——HBM、DRAM、NAND 和 HDD。 其中,HBM 完全基於 AI GPU 而生的全新需求,通過 Cowos 封裝技術,是是一個放在 GPU“腦殼” 的產品,延遲極低;而 DRAM(簡單理解內存條)讀取時間延遲也比較短,是更靠近但獨立於算力端(GPU、CPU)的 “熱存儲”,這兩者其實都同屬於大類 DRAM;而 HDD 雖然延遲較高,但具有大容量的 “冷存儲”。 **各類存儲產品在 AI 服務器中都是什麼角色呢,具體來看:** **a)HBM:和 GPU 芯片 3D 堆疊在一起,是 GPU 的 “專用顯存”,具體高帶寬、高功耗的特點,價格也相對較高。**HBM 是**AI 服務器的 “性能天花板”**,決定單 GPU 可承載的模型規模與響應速度。 **b)DRAM(DDR5):是數據交換樞紐,由 CPU 和 GPU 共用,連接着 HBM 與 NAND 的 “橋樑”。**雖然 DDR5 的速度比 HBM 慢一些,但容量大了很多倍。DDR5 是 AI 服務器的 “內存基石”,其容量決定**單服務器可同時處理的任務數,是處理併發任務的核心**。 **c)NAND(SSD):是熱數據倉庫,**高頻訪問數據的 “快速持久層”,**連接着 DRAM 與 HDD。作為 AI 數據中心的 “性能 - 容量平衡者”,SSD 是訓練數據 “快速補給站”,也是推理服務 “快速響應核心”。** **d)HDD:海量冷數據的低成本容器。**HDD 雖然帶寬最低,但具有大容量、成本低的特點,**適合低頻使用、長期存放存放的 “冷數據”。HDD 是 AI 數據中心的 “容量基石”,決定整體數據存儲規模。** **由此可見,一條很清晰的 AI 服務器數據流動路線:HDD 的冷數據->SSD 預熱->DRAM 中轉->HBM 配合計算,其中的各個部分在訓練和推理服務器中都是所需要的。** **1.2 當前 AI 存儲呈現什麼樣的特點** 本輪存儲大週期完全是由 AI 需求帶動,因而對 AI 存儲的表現也應該主要從下游 AI 服務器的市場情況入手。 和上半年相比,AI 服務器領域明顯出現了一些變化: a)AI 從訓練向推理遷移: ①訓練像是 “一次性投入”,而推理更是商業化落地的 “剛需場景”; ②訓練端對性能的要求更高,成本隨着性能提升是增加的,而推理具有規模效應,可以通過批量處理來實現成本的攤薄。 在谷歌 Gemini 給出了不差於 GPT 的性能表現後,讓市場重新思考英偉達 GPU 領先的性能優勢在大模型實際應用中體現並不明顯。尤其在當前 AI 向推理端側重的趨勢下,通過大規模化能獲得規模優勢,定製 ASIC 芯片在推理端也是完全可以勝任的。 **相比於 AI 訓練服務器,AI 推理服務器相對更注重於 DDR(併發任務)、SSD(快速響應)和 HDD(大容量)。** **b)算力轉向存力:**之前市場關注點主要在算力,認為算力越強大,模型的反應速度也會更快。但其實在算力之外,還是需要存力來 “投餵數據” 的。**如果存儲端 “吐數據” 的速度跟不上計算端,就會出現算力 “冗餘” 的情況,這也是目前市場中所關心的 “內存牆” 問題。** **“內存牆” 瓶頸:**大模型到推理階段,需先從 HBM 加載模型權重(GB 級)與 KV 緩存(GB 級)到 GPU 緩存,再執行計算——計算本身僅需微秒級,但數據搬運則需要毫秒級。 **以 H100 為例,HBM 帶寬 3.35TB/s,單 Token 的計算時間是 10 微秒,但生成這一個 Token,需要加載整個模型權重,假如是 10GB 模型權重 +20GB KV 緩存,從 HBM 要把這些數據加載到 GPU 的搬運時間大約需要 9 毫秒,計算閒置時間將近 99%,也就是 9 毫秒/(9 毫秒 +0.01 毫秒)。**【其中:空置率=等待時間(數據搬運 + 內核啓動)÷全流程耗時×100%】 **1.3 當前現狀下,對 AI 存儲需求的影響** 從上文來看,AI 服務器當前現狀下,也延伸出了對 AI 存儲在兩個方面的需求變化,一方面是推理服務器對 DDR、SSD 和 HDD 的需求將會相對更多;另一方面是 “內存牆” 的瓶頸,需要壓縮傳輸距離、提高傳輸速度,進而減少 “等待時間”。 在英偉達收購 Groq 之後,市場中也有 “SRAM 替代 HBM” 的聲音(注:GPU 芯片內部有 L1/L2 緩存和寄存器,SRAM 就是 L2 緩存,是連接外部 HBM 的總樞紐。)。 而在 CES 2026 中,黃仁勳也給出了回應,“雖然 SRAM 的速度比 HBM 快很多,但 SRAM 的容量還是偏小的(相較於 HBM)”。 由此推測,海豚君認為即使 SRAM 開啓量產,仍將主要是以 “SRAM+HBM” 的形式,並不會在短期內實現對 HBM 的替代。 **針對於 “內存牆”,目前主要有三個方法來應對:** **①HBM(提高傳輸速度):拉堆疊層數,從 12-Hi 往 16-Hi 升級,**在存儲容量提升的同時,傳輸速度有望從 B300(8TB/s)提升至 16-32TB/s,**從而減少數據排隊等待時間;** **②SRAM(壓縮傳輸距離):3D 堆疊 SRAM 通過垂直堆疊多層 SRAM 芯粒,將 KV 緩存、模型輕量權重直接放在計算單元 “隨身口袋”(片上或近片存儲)。**等到 SRAM 量產後**,將轉為 “SRAM+HBM” 的形式(SRAM 負責 “快”,HBM 負責 “多”),這有望將延遲從 100ns 大幅縮短至 2ns 附近。** **正如近期英偉達收購 Groq,就是看重其 3D SRAM 方面的能力,當前該領域的核心廠商有台積電、Groq、三星等。**按市場預期,在 2026 年下半年英偉達下一代的 Rubin 芯片中有望融入 Groq 技術,從而實現存力端的提速。 **③存算一體:主要嵌入把部分算力嵌入存儲內部,**從而實現算力冗餘的消除、存力效率和能效比的提升**。**目前尚未在數據中心場景實現落地,按預期在 2027 年及之後有望逐漸成為解決 “內存牆” 困擾的一個途徑。 數據中心及 AI 當前階段的重心已經從算力逐漸轉向存力,而在遇到的 “內存牆” 問題中,HBM 迭代升級和 SRAM 的應用,將是短期內減少 “等待時間” 的有效方式。**中長期角度來看,打造 “存算一體” 的產品未來會成為解決 “內存牆” 問題更好的 “答案”。** **附:英偉達收購 Groq,主要是對人才的收購,同時獲得 Groq 全部核心 IP(LPU 架構、TSP 微架構、編譯器技術)與硬件資產使用權**。Groq 創始人 Jonathan Ross(谷歌 TPU 創始成員)及 90% 核心工程團隊加入英偉達,由 Simon Edwards 接任 Groq 新 CEO。 **這一方面能通過融合 SRAM 技術,從而提升英偉達在 AI 推理方面的能力;另一方面也是一次防禦性收購,避免 Groq 相關技術落入到了其他競爭對手之中**。 **二、HBM 市場:升級至 HBM4,供需緊平衡** **AI 進入推理落地階段,“內存牆” 困境難解的情況下,HBM 依然是緩解 “等待時間” 的一個有效方式。**因而,當前三大存儲原廠(三星、海力士、美光)將資本開支的重心依然投向於 HBM 領域。 受益於 AI 需求的影響,HBM 是其中最為直接的增量需求( “從無到有” 的需求創造)。由於 HBM 基本都是搭載在 AI 芯片上配套出貨,**那麼 HBM 的需求量也是與 AI 芯片的出貨情況直接掛鈎**。 從當前主流的 AI 芯片(英偉達、谷歌、AMD)來看,基本都搭載了 HBM3E。在三星的 HBM3E 通過英偉達認證之後,也已經跟了上來。目前三家廠商都開始對 HBM4 進行送樣,當 HBM4 順利量產,下一代 AI 旗艦芯片也將陸續配備新一代的 HBM4 產品。 **雖然 HBM 是 AI 服務器率先帶動的需求,但 HBM 的供需狀況卻不是最緊張的**,而其中的一部分原因正是**存儲廠商近年來高增的資本開支主要都投向於 DRAM,尤其是高端產線 HBM 的擴產**。 **這在核心廠商的表態中也能看出**,**①海力士:**投入增加以應對 M15x 的 HBM4 產能擴張;**②三星:**投入將主要用於 HBM 的 1c 製程滲透及小幅增加 P4L 晶圓產能;**③美光:**專注於 1gamma 製程滲透和 TSV 設備建置。 **2.1 HBM 供給端:產能->產量** **HBM 的主要供應商來自於海力士、三星和美光這三家公司,**HBM 市場的供應量也將主要取決於三家公司的 HBM 產能情況。 從上文中能看到,存儲廠商的資本開支主要集中在 HBM 領域,這也帶來了 HBM 產能端的快速爬坡。**根據公司情況及行業面信息,當前三家公司合計 HBM 的月產能約為 39 萬片左右。其中海力士和三星的產能相對領先,而美光的產能規模相對較少**。 隨着三家核心廠商的資本投入繼續增加,**HBM 的月產能至 2026 年末有望繼續提升至 51 萬片左右**,年增 12 萬片左右的產能。 **值得注意的是,HBM 的產能情況並不等於出貨量表現。參考三星,它的 HBM 產能雖然相對較高,但由於公司在 HBM3E 工藝中良率偏低並遲遲未能實現對英偉達的供貨,因而三星的 HBM 實際出貨量的佔比下滑至了 3 成以下。** 當前 HBM 市場的份額中,海力士佔據將近一半的份額,而美光和三星相對接近。而**隨着三星的 HBM3E 產品在四季度獲得了英偉達的認證,三星公司的 HBM 產能利用率和出貨份額也將有所回升,有望實現了對美光的反超**。 對於 HBM 供應端的測算,主要結合產能和良率來估算。因為 HBM 基本由三大核心廠商(海力士、美光、三星)壟斷,HBM 的產能部分也將主要考慮這三家公司的情況。 **從上文的三家公司合計產能來看,2025 年四季度的 HBM 月產能約為 39 萬片,至 2026 年四季度 HBM 的月產能有將達到 51 萬片。考慮到產能爬坡因素,海豚君預估 2026 年 HBM 的合計總產能有望達到 543 萬片。** 由於單片 12 寸晶圓(直徑 300mm),大約能切割出 514 顆等效 3GB 的 HBM 顆粒(考慮切割及邊角料損失)。 那麼 543 萬片的 HBM 產能大約能切出 27.9 億顆的 HBM 顆粒(等效 3GB),在 50% 綜合良率的情況下,**2026 年三家核心廠商大致能提供 41.9 億 GB 的 HBM 供應量。** **2.2 HBM 需求端:CoWoS->AI 芯片->HBM** **因為 HBM 基本都配備在 AI 芯片之上,而 AI 芯片又都需要 CoWoS 封裝。因此在對 HBM 需求量的估算中,將具體通過 “CoWoS->AI 芯片->HBM” 的方式進行。** 結合行業及市場預期的情況看,在 2026 年的 CoWoS 分配中英偉達仍佔據着最大的份額(佔據總量的一半以上),谷歌、AMD 和亞馬遜也是 CoWoS 較大的下游客户。**假定下圖中所列的核心客户佔據了 90% 的 CoWoS 需求,那麼全球 CoWoS 在 2026 年的全年需求量大約在 128 萬片左右。** **在 CoWoS 量的基礎上,再來測算 AI 芯片的出貨量。**以英偉達 B300 為例,由於單個 CoWoS 封裝晶圓面積大約能得到 14 個左右 B300 芯片(28 個裸芯),那麼 B300 的 35 萬片 CoWoS 產能分配大致對應 490 萬個 B300 芯片。 **單個 B300 芯片配備 8 個 HBM3E,而每個 HBM3E 都為 36GB 的容量,因而單個 B300 需要 288GB 的 HBM3E。那麼 490 萬個 B300 芯片,則需要 14 億 GB 的 HBM**。 **將谷歌、AMD 等各家的 AI 芯片都以此方式來預估,可以得到 2026 年全年的 128 萬片 CoWoS 產能大致對應了 42 億 GB 的 HBM 需求量**。 **HBM 的迭代升級是短期內緩解 “內存牆” 的方式之一,綜合上述 HBM 的供應量(41.9 億 GB)和需求量(42.1 億 GB)來看,2026 年的 HBM 市場是相對緊張的,這主要是在三大存儲原廠大力擴產之下,呈現出了緊平衡的狀態。** **本文主要介紹了各類存儲在 AI 服務器中的角度以及 HBM 的供需情況,而下篇文章中將繼續圍繞 AI 對傳統存儲領域的影響展開。** <此處結束> 海豚君近期關於存儲類的相關文章回溯: 財報季 2025 年 12 月 18 日電話會《[美光(分析師小會):現金優先用於擴大生產,HBM4 良率爬坡更快](https://longportapp.cn/zh-CN/topics/37222356)》 2025 年 12 月 18 日電話會《[美光(紀要):毛利率繼續提升,幅度會放緩](https://longportapp.cn/zh-CN/topics/37220965)》 2025 年 12 月 18 日財報點評《[美光 MU:AI 點燃存力,存儲大週期啓幕?](https://longportapp.cn/zh-CN/topics/37220394)》 本文的風險披露與聲明:[海豚君免責聲明及一般披露](https://support.longbridge.global/topics/misc/dolphin-disclaimer) ### Related Stocks - [GPUS.US - Hyperscale Data](https://longbridge.com/zh-HK/quote/GPUS.US.md) - [HBM.US - Hudbay Minerals](https://longbridge.com/zh-HK/quote/HBM.US.md) - [MU.US - 美光科技](https://longbridge.com/zh-HK/quote/MU.US.md) - [PIM.US - Putnam Master Intermediate Income Trust](https://longbridge.com/zh-HK/quote/PIM.US.md) - [SSNGY.US - 三星電子](https://longbridge.com/zh-HK/quote/SSNGY.US.md) - [SSD.US - Simpson製造](https://longbridge.com/zh-HK/quote/SSD.US.md) - [GPUS-D.US - HYPERSCALE DATA INC 13.00%CUM RED PER PREF STK SER D USD25](https://longbridge.com/zh-HK/quote/GPUS-D.US.md) --- > **免責聲明**:本文內容僅供參考,不構成任何投資建議。