Dolphin Research
2026.01.06 11:20

存儲猛拉,AI 存力超級週期到底有多神?

portai
我是 PortAI,我可以總結文章信息。

在 AI 需求的帶動下,存儲行業從 HBM 領域延伸至傳統存儲領域開啓了本輪全面上行週期。以美光為例,在存儲產品持續漲價的帶動之下,公司的毛利率已經到了相對高位。美光公司更是將下季度毛利率指引給到了 66-68%,創出歷史新高,這也意味着這輪存儲週期的猛烈程度是高於以往的。

存儲產品的漲價,其實本身也是存儲市場供需關係的反應。本輪 “供不應求” 的現象,主要是由 AI 服務器等相關需求的帶動。在當前對於本輪存儲週期上行已是共識的情況下,海豚君將主要圍繞以下問題展開:

1)AI 服務器中各類存儲都是什麼角色,當前 AI 存儲面臨怎麼樣的問題?

2)三大原廠重視的 HBM 需求如何,是否存在供需缺口嗎?

3)AI 需求爆發的情況下,對傳統存儲市場的影響如何,供給能跟上嗎?

AI 浪潮的爆發徹底重塑存儲行業格局,帶動 HBM、DRAM、NAND、HDD 等全品類存儲產品進入全面上行週期。

從供需角度來看:①需求端,AI 服務器從訓練向推理的重心轉移,催生了對 “低延遲、大容量、高帶寬” 存儲的差異化需求;②供給端,存儲廠商資本開支向高附加值的 HBM 與 DRAM 傾斜,形成結構性供需失衡,推動產品價格大幅上漲。

本文主要先解答 1 和 2 這兩個問題,至於傳統市場的影響,海豚君將在下篇中繼續展開。

當前 AI 數據中心領域的核心矛盾是 “內存牆” 瓶頸——算力增長速度遠超數據傳輸速度,導致 GPU 等計算單元空置率高達 99%。短期來看,HBM向 16-Hi 堆疊升級(帶寬提升至 16-32TB/s)與3D 堆疊 SRAM的商用(延遲壓縮至 2ns)形成互補解決方案;中長期則依賴存算一體架構的突破,徹底消除數據搬運的速度問題。

在當前 AI 存儲旺盛需求的情況下,HBM 依然是三大原廠最為重視的存儲品類,HBM4 也將在 2026 年開啓量產。由於三大原廠(三星、海力士、$美光科技(MU.US) )的資本開支主要投向於 HBM 領域,2026 年 HBM 的供應量有望增長 60% 以上。HBM 需求量受 AI 芯片及 CoWoS 產能的影響,需求量有望提升至 42 億 GB 左右,HBM 市場將呈現出 “供應緊平衡” 的狀態

下文將深入拆解存儲層級的核心角色定位、破解“內存牆”的技術演進路徑,並對HBM 這一細分市場的供需情況方面展開全景解析,而在下篇文章中將圍繞傳統市場繼續展開,更清晰看到本輪 AI 需求點燃的存儲行業超級週期

以下是海豚君關於 AI 存力週期及 HBM 市場的詳細內容:

一、AI 服務器帶來了怎樣的存儲大週期?

1.1AI 存儲在服務器中的角色:

迴歸計算機存儲最原始兩大性能維度:a. 存儲,作為數據倉庫,解決是倉庫到底有多大的問題;b. 延遲和帶寬,解決的是數據存入和取出的速度問題。

按這兩個維度,目前整個大存儲行業產品大致可以分為四大類——HBM、DRAM、NAND 和 HDD。

其中,HBM 完全基於 AI GPU 而生的全新需求,通過 Cowos 封裝技術,是是一個放在 GPU“腦殼” 的產品,延遲極低;而 DRAM(簡單理解內存條)讀取時間延遲也比較短,是更靠近但獨立於算力端(GPU、CPU)的 “熱存儲”,這兩者其實都同屬於大類 DRAM;而 HDD 雖然延遲較高,但具有大容量的 “冷存儲”。

各類存儲產品在 AI 服務器中都是什麼角色呢,具體來看:

a)HBM:和 GPU 芯片 3D 堆疊在一起,是 GPU 的 “專用顯存”,具體高帶寬、高功耗的特點,價格也相對較高。HBM 是AI 服務器的 “性能天花板”,決定單 GPU 可承載的模型規模與響應速度。

b)DRAM(DDR5):是數據交換樞紐,由 CPU 和 GPU 共用,連接着 HBM 與 NAND 的 “橋樑”。雖然 DDR5 的速度比 HBM 慢一些,但容量大了很多倍。DDR5 是 AI 服務器的 “內存基石”,其容量決定單服務器可同時處理的任務數,是處理併發任務的核心

c)NAND(SSD):是熱數據倉庫,高頻訪問數據的 “快速持久層”,連接着 DRAM 與 HDD。作為 AI 數據中心的 “性能 - 容量平衡者”,SSD 是訓練數據 “快速補給站”,也是推理服務 “快速響應核心”。

d)HDD:海量冷數據的低成本容器。HDD 雖然帶寬最低,但具有大容量、成本低的特點,適合低頻使用、長期存放存放的 “冷數據”。HDD 是 AI 數據中心的 “容量基石”,決定整體數據存儲規模。

由此可見,一條很清晰的 AI 服務器數據流動路線:HDD 的冷數據->SSD 預熱->DRAM 中轉->HBM 配合計算,其中的各個部分在訓練和推理服務器中都是所需要的。

1.2 當前 AI 存儲呈現什麼樣的特點

本輪存儲大週期完全是由 AI 需求帶動,因而對 AI 存儲的表現也應該主要從下游 AI 服務器的市場情況入手。

和上半年相比,AI 服務器領域明顯出現了一些變化:

a)AI 從訓練向推理遷移:

①訓練像是 “一次性投入”,而推理更是商業化落地的 “剛需場景”;

②訓練端對性能的要求更高,成本隨着性能提升是增加的,而推理具有規模效應,可以通過批量處理來實現成本的攤薄。

在谷歌 Gemini 給出了不差於 GPT 的性能表現後,讓市場重新思考英偉達 GPU 領先的性能優勢在大模型實際應用中體現並不明顯。尤其在當前 AI 向推理端側重的趨勢下,通過大規模化能獲得規模優勢,定製 ASIC 芯片在推理端也是完全可以勝任的。

相比於 AI 訓練服務器,AI 推理服務器相對更注重於 DDR(併發任務)、SSD(快速響應)和 HDD(大容量)。

b)算力轉向存力:之前市場關注點主要在算力,認為算力越強大,模型的反應速度也會更快。但其實在算力之外,還是需要存力來 “投餵數據” 的。如果存儲端 “吐數據” 的速度跟不上計算端,就會出現算力 “冗餘” 的情況,這也是目前市場中所關心的 “內存牆” 問題。

“內存牆” 瓶頸:大模型到推理階段,需先從 HBM 加載模型權重(GB 級)與 KV 緩存(GB 級)到 GPU 緩存,再執行計算——計算本身僅需微秒級,但數據搬運則需要毫秒級。

以 H100 為例,HBM 帶寬 3.35TB/s,單 Token 的計算時間是 10 微秒,但生成這一個 Token,需要加載整個模型權重,假如是 10GB 模型權重 +20GB KV 緩存,從 HBM 要把這些數據加載到 GPU 的搬運時間大約需要 9 毫秒,計算閒置時間將近 99%,也就是 9 毫秒/(9 毫秒 +0.01 毫秒)。【其中:空置率=等待時間(數據搬運 + 內核啓動)÷全流程耗時×100%】

1.3 當前現狀下,對 AI 存儲需求的影響

從上文來看,AI 服務器當前現狀下,也延伸出了對 AI 存儲在兩個方面的需求變化,一方面是推理服務器對 DDR、SSD 和 HDD 的需求將會相對更多;另一方面是 “內存牆” 的瓶頸,需要壓縮傳輸距離、提高傳輸速度,進而減少 “等待時間”。

在英偉達收購 Groq 之後,市場中也有 “SRAM 替代 HBM” 的聲音(注:GPU 芯片內部有 L1/L2 緩存和寄存器,SRAM 就是 L2 緩存,是連接外部 HBM 的總樞紐。)。

而在 CES 2026 中,黃仁勳也給出了回應,“雖然 SRAM 的速度比 HBM 快很多,但 SRAM 的容量還是偏小的(相較於 HBM)”。

由此推測,海豚君認為即使 SRAM 開啓量產,仍將主要是以 “SRAM+HBM” 的形式,並不會在短期內實現對 HBM 的替代。

針對於 “內存牆”,目前主要有三個方法來應對:

①HBM(提高傳輸速度):拉堆疊層數,從 12-Hi 往 16-Hi 升級,在存儲容量提升的同時,傳輸速度有望從 B300(8TB/s)提升至 16-32TB/s,從而減少數據排隊等待時間;

②SRAM(壓縮傳輸距離):3D 堆疊 SRAM 通過垂直堆疊多層 SRAM 芯粒,將 KV 緩存、模型輕量權重直接放在計算單元 “隨身口袋”(片上或近片存儲)。等到 SRAM 量產後,將轉為 “SRAM+HBM” 的形式(SRAM 負責 “快”,HBM 負責 “多”),這有望將延遲從 100ns 大幅縮短至 2ns 附近。

正如近期英偉達收購 Groq,就是看重其 3D SRAM 方面的能力,當前該領域的核心廠商有台積電、Groq、三星等。按市場預期,在 2026 年下半年英偉達下一代的 Rubin 芯片中有望融入 Groq 技術,從而實現存力端的提速。

③存算一體:主要嵌入把部分算力嵌入存儲內部,從而實現算力冗餘的消除、存力效率和能效比的提升目前尚未在數據中心場景實現落地,按預期在 2027 年及之後有望逐漸成為解決 “內存牆” 困擾的一個途徑。

數據中心及 AI 當前階段的重心已經從算力逐漸轉向存力,而在遇到的 “內存牆” 問題中,HBM 迭代升級和 SRAM 的應用,將是短期內減少 “等待時間” 的有效方式。中長期角度來看,打造 “存算一體” 的產品未來會成為解決 “內存牆” 問題更好的 “答案”。

附:英偉達收購 Groq,主要是對人才的收購,同時獲得 Groq 全部核心 IP(LPU 架構、TSP 微架構、編譯器技術)與硬件資產使用權。Groq 創始人 Jonathan Ross(谷歌 TPU 創始成員)及 90% 核心工程團隊加入英偉達,由 Simon Edwards 接任 Groq 新 CEO。

這一方面能通過融合 SRAM 技術,從而提升英偉達在 AI 推理方面的能力;另一方面也是一次防禦性收購,避免 Groq 相關技術落入到了其他競爭對手之中

二、HBM 市場:升級至 HBM4,供需緊平衡

AI 進入推理落地階段,“內存牆” 困境難解的情況下,HBM 依然是緩解 “等待時間” 的一個有效方式。因而,當前三大存儲原廠(三星、海力士、美光)將資本開支的重心依然投向於 HBM 領域。

受益於 AI 需求的影響,HBM 是其中最為直接的增量需求( “從無到有” 的需求創造)。由於 HBM 基本都是搭載在 AI 芯片上配套出貨,那麼 HBM 的需求量也是與 AI 芯片的出貨情況直接掛鈎

從當前主流的 AI 芯片(英偉達、谷歌、AMD)來看,基本都搭載了 HBM3E。在三星的 HBM3E 通過英偉達認證之後,也已經跟了上來。目前三家廠商都開始對 HBM4 進行送樣,當 HBM4 順利量產,下一代 AI 旗艦芯片也將陸續配備新一代的 HBM4 產品。

雖然 HBM 是 AI 服務器率先帶動的需求,但 HBM 的供需狀況卻不是最緊張的,而其中的一部分原因正是存儲廠商近年來高增的資本開支主要都投向於 DRAM,尤其是高端產線 HBM 的擴產

這在核心廠商的表態中也能看出①海力士:投入增加以應對 M15x 的 HBM4 產能擴張;②三星:投入將主要用於 HBM 的 1c 製程滲透及小幅增加 P4L 晶圓產能;③美光:專注於 1gamma 製程滲透和 TSV 設備建置。

2.1 HBM 供給端:產能->產量

HBM 的主要供應商來自於海力士、三星和美光這三家公司,HBM 市場的供應量也將主要取決於三家公司的 HBM 產能情況。

從上文中能看到,存儲廠商的資本開支主要集中在 HBM 領域,這也帶來了 HBM 產能端的快速爬坡。根據公司情況及行業面信息,當前三家公司合計 HBM 的月產能約為 39 萬片左右。其中海力士和三星的產能相對領先,而美光的產能規模相對較少

隨着三家核心廠商的資本投入繼續增加,HBM 的月產能至 2026 年末有望繼續提升至 51 萬片左右,年增 12 萬片左右的產能。

值得注意的是,HBM 的產能情況並不等於出貨量表現。參考三星,它的 HBM 產能雖然相對較高,但由於公司在 HBM3E 工藝中良率偏低並遲遲未能實現對英偉達的供貨,因而三星的 HBM 實際出貨量的佔比下滑至了 3 成以下。

當前 HBM 市場的份額中,海力士佔據將近一半的份額,而美光和三星相對接近。而隨着三星的 HBM3E 產品在四季度獲得了英偉達的認證,三星公司的 HBM 產能利用率和出貨份額也將有所回升,有望實現了對美光的反超

對於 HBM 供應端的測算,主要結合產能和良率來估算。因為 HBM 基本由三大核心廠商(海力士、美光、三星)壟斷,HBM 的產能部分也將主要考慮這三家公司的情況。

從上文的三家公司合計產能來看,2025 年四季度的 HBM 月產能約為 39 萬片,至 2026 年四季度 HBM 的月產能有將達到 51 萬片。考慮到產能爬坡因素,海豚君預估 2026 年 HBM 的合計總產能有望達到 543 萬片。

由於單片 12 寸晶圓(直徑 300mm),大約能切割出 514 顆等效 3GB 的 HBM 顆粒(考慮切割及邊角料損失)。

那麼 543 萬片的 HBM 產能大約能切出 27.9 億顆的 HBM 顆粒(等效 3GB),在 50% 綜合良率的情況下,2026 年三家核心廠商大致能提供 41.9 億 GB 的 HBM 供應量。

2.2 HBM 需求端:CoWoS->AI 芯片->HBM

因為 HBM 基本都配備在 AI 芯片之上,而 AI 芯片又都需要 CoWoS 封裝。因此在對 HBM 需求量的估算中,將具體通過 “CoWoS->AI 芯片->HBM” 的方式進行。

結合行業及市場預期的情況看,在 2026 年的 CoWoS 分配中英偉達仍佔據着最大的份額(佔據總量的一半以上),谷歌、AMD 和亞馬遜也是 CoWoS 較大的下游客户。假定下圖中所列的核心客户佔據了 90% 的 CoWoS 需求,那麼全球 CoWoS 在 2026 年的全年需求量大約在 128 萬片左右。

在 CoWoS 量的基礎上,再來測算 AI 芯片的出貨量。以英偉達 B300 為例,由於單個 CoWoS 封裝晶圓面積大約能得到 14 個左右 B300 芯片(28 個裸芯),那麼 B300 的 35 萬片 CoWoS 產能分配大致對應 490 萬個 B300 芯片。

單個 B300 芯片配備 8 個 HBM3E,而每個 HBM3E 都為 36GB 的容量,因而單個 B300 需要 288GB 的 HBM3E。那麼 490 萬個 B300 芯片,則需要 14 億 GB 的 HBM

將谷歌、AMD 等各家的 AI 芯片都以此方式來預估,可以得到 2026 年全年的 128 萬片 CoWoS 產能大致對應了 42 億 GB 的 HBM 需求量

HBM 的迭代升級是短期內緩解 “內存牆” 的方式之一,綜合上述 HBM 的供應量(41.9 億 GB)和需求量(42.1 億 GB)來看,2026 年的 HBM 市場是相對緊張的,這主要是在三大存儲原廠大力擴產之下,呈現出了緊平衡的狀態。

本文主要介紹了各類存儲在 AI 服務器中的角度以及 HBM 的供需情況,而下篇文章中將繼續圍繞 AI 對傳統存儲領域的影響展開。

<此處結束>

海豚君近期關於存儲類的相關文章回溯:

財報季

2025 年 12 月 18 日電話會《美光(分析師小會):現金優先用於擴大生產,HBM4 良率爬坡更快

2025 年 12 月 18 日電話會《美光(紀要):毛利率繼續提升,幅度會放緩

2025 年 12 月 18 日財報點評《美光 MU:AI 點燃存力,存儲大週期啓幕?

本文的風險披露與聲明:海豚君免責聲明及一般披露

本文版權歸屬原作者/機構所有。

當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。