
AI GPU 需求太猛,英伟达催促 SK 海力士提前 6 个月备好 HBM4

英伟达首席执行官黄仁勋要求 SK 海力士提前六个月推出下一代高带宽存储产品 HBM4,以满足对 AI GPU 的强劲需求。SK 海力士计划在 2025 年下半年向大客户提供 HBM 存储系统。英伟达的 AI GPU 市场占有率高达 80%-90%,显示出对更高性能和更节能存储系统的迫切需求。
智通财经 APP 获悉,韩国大型财团之一的 SK 集团董事长崔泰源在周一接受采访时表示,英伟达首席执行官黄仁勋此前要求 SK 集团旗下存储芯片制造巨头 SK 海力士 (SK Hynix) 提前六个月推出其下一代高带宽存储产品 HBM4。SK 海力士 10 月份在财报中曾表示,计划在 2025 年下半年向大客户 (市场猜测为英伟达以及 AMD) 提供 HBM 存储系统。SK 海力士发言人周一则表示,这一时间表确实比最初的目标要快,但没有进一步进行阐述。
黄仁勋亲自要求 SK 海力士加快下一代 HBM——HBM4 存储系统的交货速度,凸显出对英伟达对于开发愈发先进的人工智能 GPU 系统的更高容量、更节能 HBM 存储系统的无比强劲需求,以及更加凸显出 OpenAI、Anthropic、微软、亚马逊以及 Meta 等人工智能、云计算以及互联网大厂们对于 AI 训练/推理算力几乎无止境的 “井喷式需求”,迫使英伟达 (NVDA.US) 核心芯片代工厂台积电 (TSM.US) 加班加点扩大 Blackwell AI GPU 产能,以及纷纷要求英伟达以更快速度推出性能更高、存储容量更庞大、推理效率更强大且更加节能的下一代 AI GPU 的研发进程。
英伟达计划于 2026 年推出下一代 AI GPU 架构——Rubin,预计 Rubin AI GPU 将搭载 HBM4 存储系统。据不完全统计,英伟达目前在全球数据中心 AI 芯片市场占据 80%-90% 堪称垄断的市场份额,预计 AMD 占比接近 10%,其他份额则为谷歌 TPU、亚马逊自研 ASIC 等大厂自研 AI 芯片。
作为英伟达 H100/H200 以及近期批量生产的 Blackwell AI GPU 的核心 HBM 存储系统供应商,SK 海力士一直在引领全球存储芯片产能竞赛,以满足英伟达、AMD 以及谷歌等大客户们满足对 HBM 存储系统的爆炸性需求以及其他企业对于数据中心 SSD 等企业级存储产品的需求,这些存储级的芯片产品对于处理海量数据以训练出愈发强大的人工智能大模型以及需求剧增的云端 AI 推理算力而言堪称核心硬件。
但 SK 海力士也面临着来自三星电子以及美国存储巨头美光 (MU.US) 日益激烈的竞争压力。三星上周在财报中表示,在与一家主要客户 (可能是英伟达) 达成供应协议方面取得了积极进展,此前该公司长期遭遇产品测试延误并且在上一次测试中未能通过英伟达资质测试。三星补充表示,该公司正在与主要客户进行谈判,有可能明年上半年批量生产 “改进后” 的 HBM3E 产品。三星还计划在明年下半年生产下一代 HBM——HBM4 存储,以跟上竞争对手 SK 海力士的步伐。
在美国,美国本土存储巨头美光乃另一获得英伟达供应资质的 HBM 供应商,另一家为 SK 海力士。在今年 2 月,美光已经开始量产专为人工智能和高性能计算所设计的 HBM3E 存储系统,并表示英伟达一部分 H200 以及 Blackwell AI GPU 将搭载美光 HBM3E。随后,美光 CEO 还多次表示,美光今明两年的 HBM 产能已销售一空。美光还表示,正在加速推进下一代的 HBM4 和 HBM4e 研发进程。
在与崔泰源接受采访几乎同一时间,SK 海力士首席执行官郭鲁正在首尔举行的 2024 年 SK 人工智能峰会上表示,该公司计划今年年底前向一位大客户 (市场猜测为英伟达) 提供最新的 12 层 HBM3E,并计划在明年初运送更先进的 16 层 HBM3E 存储样品。并且这位首席执行官在采访中还透露,英伟达 AI GPU 供应仍然难以满足需求,并且英伟达多次要求 SK 海力士加快 HBM3E 供应规模。
HBM 需求炸裂,堪称 “印钞机”
英伟达创始人兼 CEO 黄仁勋在前不久的采访中曾透露,Blackwell 架构 AI GPU 已全面投产,且需求非常 “疯狂”;与此同时,随着 AI GPU 需求爆表,HBM 存储系统需求也随之激增,并且未来几年可能持续供不应求。
据了解,来自天风国际的知名科技产业链分析师郭明錤最新发布英伟达 Blackwell GB200 芯片的产业链订单信息,指出微软目前是全球最大的 GB200 客户,Q4 订单激增 3-4 倍,订单量超过其他所有的云服务商总和。
郭明錤在一份最新报告中表示,Blackwell AI GPU 的产能扩张预计在今年第四季度初启动,届时第四季度的出货量将在 15 万到 20 万块之间,预计 2025 年第一季度出货量将显著增长 200% 到 250%,达到 50 万到 55 万块。这意味着,英伟达可能仅需几个季度就能实现百万台 AI 服务器系统的销量目标。
根据华尔街金融巨头花旗集团的最新预测数据,到 2025 年,美国四家最大规模科技巨头的数据中心相关资本支出预计将同比增长至少 40%,这些庞大的资本支出基本上都与生成式人工智能挂钩,意味着 ChatGPT 等 AI 应用的算力需求仍然庞大。花旗集团表示,这意味着巨头们对于数据中心的支出规模有望在本已强劲的 2024 支出规模之上继续大举扩张,该机构预计这一趋势将为 AI GPU 当之无愧的霸主英伟达以及数据中心互连 (DCI) 技术提供商们股价持续带来非常重磅的正面催化剂。
HBM 存储系统与 AI 芯片霸主英伟达所提供的核心硬件——H100/H200/GB200 AI GPU 以及广泛的 AI ASIC 芯片 (比如谷歌 TPU) 配合搭载使用,HBM 与英伟达 AI GPU 共同组合成所谓的 “NVIDIA AI GPU 服务器”。HBM 以及 AI GPU 对于驱动 ChatGPT 以及 Sora 等重磅人工智能应用可谓必不可少,AI GPU 需求越强劲,则说明 HBM 存储需求愈发猛烈。
HBM 是一种高带宽、低能耗的存储技术,专门用于高性能计算和图形处理领域。HBM 通过 3D 堆叠存储技术,将堆叠的多个 DRAM 芯片全面连接在一起,通过微细的 Through-Silicon Vias(TSVs) 进行数据传输,从而实现高速高带宽的数据传输。HBM 通过 3D 堆叠技术,将多个存储芯片堆叠在一起,不仅大幅减少了存储体系空间占比,也大幅降低了数据传输的能耗,高带宽则能够显著提升数据传输效率,使得 AI 大模型能够 24 小时不间断地更高效地运行。
尤其是 HBM 存储系统具有无可比拟的低延迟特性,能够快速响应数据访问请求。GPT-4 等生成式 AI 大模型通常需要频繁访问大数据集以及进行无比繁重的大模型推理工作负载,强大的低延迟特性能够极大程度提高 AI 系统的整体效率和响应速度。在 AI 基础设施领域,HBM 存储系统全面捆绑英伟达 H100 /H200 AI GPU 以及 AMD MI300X 等 AI GPU,以及正在批量生产的英伟达 B200 和 GB200 AI GPU,以及 AMD MI325X 等。
华尔街大行高盛发布研报称,由于企业无比强劲的生成式人工智能 (Gen AI) 需求推动了更高的 AI 服务器出货量和每个 AI GPU 中更高的 HBM 密度,该机构大幅提高了 HBM 总市场规模预估,现在预计市场规模将从 2023 年到 2026 年间以复合年增速 100% 大幅增长,预计到 2026 年增长至 300 亿美元。高盛预计,HBM 市场供不应求的情况未来几年将持续,SK 海力士、三星和美光等主要玩家将持续受益。

