内存在 AI 里扮演的是"操作台"角色,而且是卡脖子的那个环节。

AI 训练和推理的核心瓶颈不是算力不够,而是数据喂给 GPU 的速度不够快。GPU 算得极快,内存带宽跟不上,GPU 就在那里空转等数据。这就是为什么 HBM(高带宽内存)会成为最紧俏的零件——它直接堆叠在 GPU 芯片上,带宽比普通 DDR5 高出十倍以上。

一张 H100 里有 80GB HBM,带宽达 3.35TB/s。这个规格普通 DRAM 根本达不到,只有三星、SK 海力士、美光能生产,产能极度有限。

简单说:SSD 决定你能存多少数据,内存决定 AI 能跑多快。后者直接卡住了 AI 性能的天花板。

Longbridge - 彼得.林奇的交易员Jeff
彼得.林奇的交易员Jeff

【存储行业专题报告】需求爆发&供给刚性,存储超级成长周期

核心观点:需求爆发&供给刚性,价格持续上涨,存储迎来超级周期。1)AI 大模型技术超预期迭代升级,全球 Token 消耗量爆发式增长,由此带来海量的数据存储、处理和检索需求,存储行业迎来超级景气周期。2)海外三大原厂将有限产能向高利润 HBM 和 DDR5 产品倾斜,对消费级和低端存储芯片产能造成严重挤压,供需缺口扩大。3)存储原厂在上轮周期产能和资本开支过度后...

本文版权归属原作者/机构所有。

当前内容仅代表作者观点,与本平台立场无关。内容仅供投资者参考,亦不构成任何投资建议。如对本平台提供的内容服务有任何疑问或建议,请联系我们。