
赛道 Hyper | 三星搞定 HBM4 设计:领先海力士半身位

微小领先,特斯拉也来插一脚。
作者:周源/华尔街见闻
在与 “同门” SK 海力士的 HBM 技术比拼中,三星电子终于挣回了一点面子。
1 月 5 日,供应链有消息称,三星 DS 部门存储业务部约在今年 1 月初完成了 HBM4 内存逻辑芯片设计。
根据该设计,三星电子 Foundry 业务部采用 4nm 制程工艺试产。在完成逻辑芯片最终性能验证后,三星将提供 HBM4 样品验证。
逻辑芯片,即 Logic die(也称 Base die,下图红框标注示意图),在 HBM 最底层,由 DRAM 堆叠而成,是控制多层 DRAM 的核心部件。

HBM 的核心优势,采用了 3D 堆叠技术,将多个 DRAM 芯片垂直堆叠在一起。通过硅通孔(TSV)技术实现芯片间的高速信号传输,大幅缩短了数据传输的距离和延迟,从而能以极高带宽为处理器提供数据支持。
自从三星电子在 HBM 市场的领先地位被 SK 海力士夺走后,三星电子在 2023 年先后调整了 4-5 次 DS 部门的技术架构和领导人,“咬牙” 要通过 HBM4 在韩国 SK 海力士那里逐步夺回曾经独属于自己的业界尊严。
三星电子在 HBM3e 代际的市场一哥地位被 SK 海力士取代。
2024 年,三星频繁调整技术人力资源,为 2025 年通过全新技术手段,在 HBM4 代际,以独立的 4nm 工艺代工的 Base die,取得和 SK 海力士 HBM 技术发展持平的地位。
这种超越,主要是 “欺负” SK 海力士没有代工能力。此前的消息显示,SK 海力士正在和台积电实施战略捆绑,靠台积电的 5nm 工艺推动 HBM4 的 Base die 设计制造。
HBM(High Bandwidth Memory),也就是高带宽存储器,主要应用于高性能计算(HPC)、人工智能(AI)和图形处理(GPU)等领域。
HBM 技术已发展至第六代,即 HBM(初代)、HBM2(第二代)、HBM2e(第三代)、HBM3(第四代),HBM3e(第五代)以及 HBM4(第六代)。
初代 HBM 带宽 128GB/s,由此拉开了数据高速传输的序幕;到 HBM4,数据传输速率已高达 6.4GT/s(2048 位接口),单个堆栈带宽已达 1.6TB/s,这个带宽是 HBM3e 的 1.4 倍,功耗还能降低 30%。
如此之高的数据传输速度,带给 HBM4 的压力主要就是能耗(发热)太高,进而影响 HBM4 的性能发挥。在整个 HBM4 套件中,发热最高的部分即 Base die。因此,三星电子希望用更先进的 4nm 工艺取得领先优势。
但是,三星电子在高制程芯片能耗控制方面,一向不是台积电对手,这次能反超台积电吗?这还要看三星 HBM4 正式样品出来后的测试结果。从这个角度上看,三星电子的 “领先”,只限于某个环节,即设计速度更快,但性能究竟如何,目前还不知道。
三星电子也明白其中的关键,故而业界有消息称三星电子自谓:“我们确实不再具备像以前那样在内存业务上与竞争对手拉开明显差距的优势;由于我们自己拥有代工工艺,我们对快速制造逻辑芯片以满足客户的定制需求持乐观态度。”
可见,三星电子很清楚,这次只是靠自己的 4nm 工艺先于竞对完成 Base die 的设计工作,但并没取得对 SK 海力士的全面领先。
为了对 SK 海力士保持更具优势的领先,三星电子此次还想通过第六代 10nm(c)DRAM 芯片用于堆叠在 HBM 中的通用 DRAM。SK 海力士目前正在用第五代 10nm(b)DRAM。
就算是小幅技术领先,毕竟也是领先不是?
之前业界的消息显示,三星电子计划采用 “混合键合” 的新方法堆叠 16hi(层)的 HBM4 产品。目前,HBM4 分 12hi(层)和 16hi(层)两类;HBM3e 则分为 8hi(层)和 12hi(层)。
混合键合是一种通过铜堆叠芯片的工艺,无需使用传统方式连接芯片的 “凸块”,从而能缩小尺寸并提高性能。
三星电子采用了更先进的 “热压缩非导电粘合膜(TC-NCF)” 技术,能改进每次堆叠芯片时放置薄膜状材料的性能,实现最多可堆叠 12hi(层)的 HBM 产品。
目前,三星电子目前正在快速推进代工工艺。由于前几代产品落后于竞争对手,三星电子正在加快 HBM4 的进度,以快速响应客户的样品测试和改进要求。
SK 海力士也没闲着,该公司计划在 2025 年底量产 HBM4,三星电子也有差不多的时间表。
另一则与 HMB4 相关的信息,可能会让三星电子在 HBM4 代际做出的全面努力给出回报。
正如微软、Meta 和谷歌那样,特斯拉也在寻求获得即将推出的 HBM4 内存芯片的样品。为此,特斯拉在近期与三星电子和 SK 海力士分别做了接洽。
特斯拉 Dojo 超级计算系统平台计划将集成 HBM4,以加快 “全自动驾驶” 神经网络的训练速度。同时,HBM4 还能在特斯拉的数据中心和未来的自动驾驶汽车中实现部署。
Dojo 系统眼下还在使用较旧的 HBM2e 芯片训练特斯拉全自动驾驶功能所依赖的复杂 AI 模型,急需更换成更强性能的 HBM 产品,以应对急剧扩大的数据量。

