
賽道 Hyper | SK 海力士 DDR5 提價 15%-20%

HBM 產能供應吃緊,AI 服務器正在加單。
作者:周源/華爾街見聞
儘管英偉達股價已從 6 月 20 日的高點跌了近 20%(截至 8 月 12 日),但 HBM(高帶寬內存)卻仍在告急。
8 月 13 日,華爾街見聞從供應鏈獨家獲悉,SK 海力士已將其 DDR5(DRAM)提價 15%-20%。供應鏈人士告訴華爾街見聞,海力士 DDR5 漲價,主要是因為被 HBM3/3E 產能擠佔所致。同時,由於下游 AI 服務器加單,也推升了 SK 海力士決定提高 DDR5 價格的決心。
今年 5 月,SK 海力士曾對外宣佈,他們家 2024 年和 2025 年大部分 HBM(High Bandwidth Memory)產能供應已被預定一空。美光科技在今年 3 月份也發佈過類似聲明。
最近,據 TrendForce(集邦諮詢)預測,2024 年,HBM 在整個內存市場的份額將有約 2.5 倍的增長:也就是從 2023 年的 2% 增至今年的 5%。預計到 2025 年,HBM 的市場滲透率將佔整個內存市場的約 10%。
簡單回顧下 HBM 在英偉達 AI 加速卡中的作用:AI 加速卡(顯卡或 GPU)在封裝時,將多個 HBM(DARM)與 GPU 封裝在一起。
其中,HBM 位於 GPU 兩側,以堆疊方式排列,這些 HBM 相互之間以 TSV 方式連接,而 GPU 和 HBM 則通過 uBump 和 Interposer(起互聯功能的硅片)連通;之後,Interposer 再通過 Bump 和 Substrate(封裝基板)連通到 BALL;最 BGA BALL 連接到 PCB 上。
HBM 比 GDDR 節省約 94% 的表面積,每瓦帶寬比 GDDR5 高 300%+,也就是功耗降低 3 倍。
這種存儲器最初的設計目的,是為 GPU 提供更快速的數據傳輸速度和大容量的內存空間。在 AI 加速卡出現之前,HBM 的強悍性能缺乏必要的匹配場景,故而沒有市場。在 ChatGPT-3.5 出現後,AI 訓練和推理速度需求爆發,HBM 也找到了適合的市場空間。
由於此次興起的 AI 技術對數據傳輸速率有着極高要求,故而 HBM 具有的內存高帶寬技術特性也成為了 “香餑餑”,加上封裝時採用的異構集成路線(在減少物理空間佔用的同時,也方便在更靠近處理器的位置包含更多內存),大幅提高了內存訪問速率。
在採用了這些技術手段之後,導致的直接結果就是 HBM 內存接口更寬,下方互聯的觸點數量遠多於 DDR 內存連接到 CPU 的線路數量。因此,與傳統內存技術相比,HBM 具有更高帶寬、更多 I/O 數量、更低功耗和更小的物理尺寸。
目前,HBM 發展到了第五代的 HBM3E;此前為 HBM(第一代)、HBM2(第二代)、HBM2E(第三代)和 HBM3(第四代)。第六代的 HBM4 正在研發中,從 SK 海力士傳出的消息,該公司將在 2025 年下半年實現 HBM4 的量產,三星電子卻宣稱其將領先一步,於 2025 年上半年推出 HBM4。
HBM3E 的速率為 8Gbps:每秒能處理 1.225TB 數據。舉個例子:在 1 秒不到的時間內,就能下載一部 163 分鐘的全高清(Full-HD)電影(1TB)。三星電子已推出 12 層堆棧的 HBM3E,存儲容量高達 36GB。SK 海力士和美光科技也有同類產品,帶寬都超過了 1TB/s。
在全球範圍內,能生產這種存儲器的公司只有 SK 海力士、三星電子和美光科技。市佔率方面,SK 海力士目前佔據最大份額約 52.5%,三星電子約有 42.4% 市佔率,美光科技份額為 5.1%。
回到市場本身,據 TrendForce 預測,HBM 在今年,市場價值會佔 DRAM 總市場價值的 20%+,2025 年將躥升至 30%+。
AI 浪潮對 AI 加速卡的需求量,並沒有因為英偉達最新產品 Blackwell 的延遲推出而減弱。
作為本輪 AI 浪潮興起的最大受益方 SK 海力士,因為 HBM 產能的市場需求爆棚而不得不去減少 DDR5 的產能,原因是因為新的 HBM 生產線要求遠超標準 DRAM,故而需要更多時間。
另外有個消息也不樂觀,除了英偉達 AI 加速卡對 HBM 有極強的吞噬力,AMD 的 Versal 系列 FPGA 處理器也使用 HBM,所以這種高性能內存產品會更進一步短缺。

