
赛道 Hyper | 三星欲拔 CXL 市场头筹能如愿否?

战事激烈,优势微弱。
作者:周源/华尔街见闻
GenAI(生成式人工智能:Generative Artificial Intelligence)应用的飞速发展,在推升英伟达超越三星电子成为全球第二大半导体(营收)厂商的同时,也让为英伟达 AI 加速卡提供 HBM(高带宽存储器:High Bandwidth Memory)的 SK 海力士赚得钵满盆满。
得益于 2021 年对 HBM 未来市场潜力的正确预判,海力士如今在 HBM 市场叱咤风云,销量市占率为全球第一且相比排名第二的三星电子而言,做到了名副其实的 “遥遥领先”。
三星电子意识到在 HBM 市场落后于海力士之后,发动战术反攻,希望抢回被海力士占据的全球第一宝座。
三星电子在 GenAI 领域的战术手段包括两个方向:第一,开发 Mach 系列(目前正研发 1,规划研发 2),挖英伟达墙角;第二,推动 CXL(Compute Express Link)内存标准研发,为英伟达和自己家 Mach 系列在实现高存储容量的同时,也能提升数据传输速率。
海力士领先:三星对策?
英伟达是 HBM 的全球最大买家,这种超级 “芯片” 已成为 AI 图形处理单元的关键组件。SK 海力士是英伟达当前代际存储芯片 HBM3 和 HBM3E 的唯一供应商。在 HBM3E 全球市场,海力士市占率介于 75%-80% 之间。
SK 海力士已开始批量生产其下一代芯片 HBM3E(第六代际),美光科技(Micron)也加入了这一行列。此前不久,这两家公司都已宣布其 HBM3E 今年所有产能都被英伟达预订一空。与此相比,三星供应英伟达的 HBM3E 目前尚处于资格测试阶段。
HBM 是一种由多个 DRAM 芯片堆叠而成的芯片立体芯片组。这些 DRAM 芯片通过硅通孔(TSV)的微细导线在垂直堆叠层之间实现相互连接。2014 年首款 HBM 芯片问世。
HBM 芯片容量从 1GB 升级至 24GB,带宽从 128GB/s 提升至 819GB/s,数据传输速率也从 1Gbps 提高至 6.4Gbps。
由于提升芯片有限面积上的晶体管数量难度增加,为了维持摩尔定律的有效性,故而将堆叠作为一种技术而非扩展以推动各种芯片(也包括 3D NAND)性能超越极限的策略,在 2010 年开始为业界推重。
截至 2024 年 3 月,全球能稳定供应 HBM3 产品的供应商是韩国 SK 海力士、三星电子和美光科技。其中,海力士和美光科技能稳定供应 HBM3E。
三星电子在 2020 年前,原本是这种技术的领导者。2015 年,三星电子全球首发 HBM2 芯片;2021 年,海力士后来居上,成为全球首家能提供 HBM3 的厂商。此后,2019 年,三星电子解散 HBM 业务和技术团队。海力士抓住机会,顺势成为 HBM 全球霸主。
2022 年 11 月 30 日,ChatGPT 横空出世,HBM 成为英伟达 AI 加速卡最重要的高带宽内存芯片。当年全球 50% 的 HBM 出货来自 SK 海力士,三星占比 40%,美光占 10%。
但在 HMB3E 细分市场,海力士全球市占率高达 75%-80%,而三星电子尚未有资格为英伟达供应这个代际的 HBM3E 芯片。
由此,海力士取得了战略层面的重大胜利。
三星电子反应极大:今年 1 月和 3 月,三星电子先后成立两个 HBM 技术团队;3 月 19 日,在全球芯片制造商 Memcon 2024 会上,三星副总裁兼 DRAM 产品和技术主管 Hwang Sang-joong 透露,三星电子将批量大规模生产 12 层第五代 HBM(即 HBM3E)。
同时,Hwang Sang-joong 公布了 HMB 技术路线图,预计 2026 年 HBM 出货量将是 2023 年产量的 13.8 倍。到 2028 年,HBM 年产量将进一步增至 2023 年水平的 23.1 倍。
根据三星电子的 HBM 技术路线图,2026 年三星电子的主力 HBM 产品应该是第五代 HBM3E 和第六代 HBM4。其中,前者将大幅提高堆叠数量。三星在会上展示 HBM3E 12H 芯片——业界首款 12 层堆栈的 HBM3E,这标志着 HBM 技术有史以来实现了最高容量的突破。
公开消息显示,三星电子正在向英伟达提供 HBM3E 12H 芯片样品,计划在 2024 年上半年开始量产。
不仅如此,作为全球半导体产业链最长、最全的三星电子,在 GenAI 市场的战术反攻,目标对象不仅只想拉海力士下马,同时也将竞争压力迫向英伟达,但实现路径较为间接。
三星半导体业务负责人 Kyung Kye-hyun 在 3 月下旬表示,三星正在开发下一代 AI 芯片 Mach-1,目的是分英伟达的 AI 加速卡蛋糕。
据三星介绍,Mach-1 是一种片上系统(SoC)形式的 AI 加速卡,能减少图形处理单元(GPU)和 HBM 之间的数据传播速率瓶颈。这款技术产品为英伟达下游采购商韩国搜索巨头 Naver 采用,合同规模高达 7.52 亿美元。
CXL 市场:鹿死谁手未可知
鉴于三星电子在 HBM 战略层面的落后,只能靠技术代际超越夺回海力士全球第一的宝座。
三星电子的杀手锏,就是 CXL 技术。
在 Memcon 2024 会上,三星执行副总裁 Han Jin-man 披露了三星 CXL 技术和愿景。
CXL 技术是一种高速、大容量中央处理器(CPU)到设备以及 CPU 到内存连接的开放标准,专为高性能数据中心计算机而设计。
鉴于 CXL 技术原理较为复杂(与 PCIe<Peripheral Component Interconnect Express>技术有关),故而只谈 CXL 的作用:采用 CXL 技术的内存,在实现高存储容量时,能克服常见 DIMM 内存的性能和插槽封装限制。应用方面,涉及软硬件两个层面——服务器和存储产品与解决方案。
2023 年初,AMD 发布的第四代 EPYC(代号 Genoa)和英特尔发布的第四代 Xeon Scalable(代号 Sapphire Rapids)处理器平台,构建了 CXL 的应用硬件端,还包括三星、海力士、美光,Astera Labs 和台湾的世迈科技(SMART Modular Technologies)等等;软件层面主要是一些云服务和软件系统应用公司,比如 Elastics.cloud、英国 IntelliProp、以色列 UnifabriX 之类。
其中,三星电子是推动 CXL 技术应用的急先锋。
2021 年 5 月 11 日,三星宣布推出业界首款支持 CXL 互连标准的内存模块(基于 128 GB DDR5)。这个模块与三星 DDR5 技术实现集成后,能显著扩展服务器系统的内存容量到 TB 级和带宽,从而加速数据中心(IDC)的 AI 和高性能计算(HPC)的工作负载。
三星这款 CXL 内存模块,还整合了多种控制器和软件技术,如内存映射、接口转换和错误管理,这将使 CPU 或 GPU 能够识别基于 CXL 的内存并将之用作主内存。
此后,三星又发布全球首款配备 512GB DDR5 DRAM 的 CXL 内存模块,相比上一代,这款内存模块的容量提升 4 倍,延迟减少 20%。
2023 年 5 月 12 日,三星宣布成功开发业界首款支持 CXL 2.0 的 128 GB DRAM,支持 PCle 5.0 接口(x8 通道)并提供高达每秒 35GB 的带宽。这款产品最终在英特尔至强平台上实现了里程碑式的进步。
与 HBM 相比,CXL 不但也解决带宽问题,还同时搞定了容量扩展问题。就像堆叠(Chiplet)技术解决了在有限面积上的晶体管数量瓶颈。
总的来说,符合 CXL 技术的内存,具有高带宽、低延迟和可扩展三大特性。因此,尽管 HBM 现在仍是主角,但未来无法扩展将成为其发展前景的制约。
事实上,SK 海力士与美光也看到了 CXL 的潜力,但这两家公司在这项技术上的进度,与三星相比,尚有不足。与三星相比,海力士在 2023 年 9 月展示了首款 CXL 2.0 产品,落后三星约四个月,美光则比海力士早两个月,但也同样落后三星两个月。
三星想通过 CXL 技术超越海力士,就目前看来,领先优势较为微弱,究竟在这块新市场,谁才是霸主,现在还很难说。

