作者:周源/华尔街见闻 尽管英伟达股价已从 6 月 20 日的高点跌了近 20%(截至 8 月 12 日),但 HBM(高带宽内存)却仍在告急。 8 月 13 日,华尔街见闻从供应链独家获悉,SK 海力士已将其 DDR5(DRAM)提价 15%-20%。供应链人士告诉华尔街见闻,海力士 DDR5 涨价,主要是因为被 HBM3/3E 产能挤占所致。同时,由于下游 AI 服务器加单,也推升了 SK 海力士决定提高 DDR5 价格的决心。 今年 5 月,SK 海力士曾对外宣布,他们家 2024 年和 2025 年大部分 HBM(High Bandwidth Memory)产能供应已被预定一空。美光科技在今年 3 月份也发布过类似声明。 最近,据 TrendForce(集邦咨询)预测,2024 年,HBM 在整个内存市场的份额将有约 2.5 倍的增长:也就是从 2023 年的 2% 增至今年的 5%。预计到 2025 年,HBM 的市场渗透率将占整个内存市场的约 10%。 简单回顾下 HBM 在英伟达 AI 加速卡中的作用:AI 加速卡(显卡或 GPU)在封装时,将多个 HBM(DARM)与 GPU 封装在一起。 其中,HBM 位于 GPU 两侧,以堆叠方式排列,这些 HBM 相互之间以 TSV 方式连接,而 GPU 和 HBM 则通过 uBump 和 Interposer(起互联功能的硅片)连通;之后,Interposer 再通过 Bump 和 Substrate(封装基板)连通到 BALL;最 BGA BALL 连接到 PCB 上。 HBM 比 GDDR 节省约 94% 的表面积,每瓦带宽比 GDDR5 高 300%+,也就是功耗降低 3 倍。 这种存储器最初的设计目的,是为 GPU 提供更快速的数据传输速度和大容量的内存空间。在 AI 加速卡出现之前,HBM 的强悍性能缺乏必要的匹配场景,故而没有市场。在 ChatGPT-3.5 出现后,AI 训练和推理速度需求爆发,HBM 也找到了适合的市场空间。 由于此次兴起的 AI 技术对数据传输速率有着极高要求,故而 HBM 具有的内存高带宽技术特性也成为了 “香饽饽”,加上封装时采用的异构集成路线(在减少物理空间占用的同时,也方便在更靠近处理器的位置包含更多内存),大幅提高了内存访问速率。 在采用了这些技术手段之后,导致的直接结果就是 HBM 内存接口更宽,下方互联的触点数量远多于 DDR 内存连接到 CPU 的线路数量。因此,与传统内存技术相比,HBM 具有更高带宽、更多 I/O 数量、更低功耗和更小的物理尺寸。 目前,HBM 发展到了第五代的 HBM3E;此前为 HBM(第一代)、HBM2(第二代)、HBM2E(第三代)和 HBM3(第四代)。第六代的 HBM4 正在研发中,从 SK 海力士传出的消息,该公司将在 2025 年下半年实现 HBM4 的量产,三星电子却宣称其将领先一步,于 2025 年上半年推出 HBM4。 HBM3E 的速率为 8Gbps:每秒能处理 1.225TB 数据。举个例子:在 1 秒不到的时间内,就能下载一部 163 分钟的全高清(Full-HD)电影(1TB)。三星电子已推出 12 层堆栈的 HBM3E,存储容量高达 36GB。SK 海力士和美光科技也有同类产品,带宽都超过了 1TB/s。 在全球范围内,能生产这种存储器的公司只有 SK 海力士、三星电子和美光科技。市占率方面,SK 海力士目前占据最大份额约 52.5%,三星电子约有 42.4% 市占率,美光科技份额为 5.1%。 回到市场本身,据 TrendForce 预测,HBM 在今年,市场价值会占 DRAM 总市场价值的 20%+,2025 年将蹿升至 30%+。 AI 浪潮对 AI 加速卡的需求量,并没有因为英伟达最新产品 Blackwell 的延迟推出而减弱。 作为本轮 AI 浪潮兴起的最大受益方 SK 海力士,因为 HBM 产能的市场需求爆棚而不得不去减少 DDR5 的产能,原因是因为新的 HBM 生产线要求远超标准 DRAM,故而需要更多时间。 另外有个消息也不乐观,除了英伟达 AI 加速卡对 HBM 有极强的吞噬力,AMD 的 Versal 系列 FPGA 处理器也使用 HBM,所以这种高性能内存产品会更进一步短缺。