
KORU股东内存在 AI 里扮演的是"操作台"角色,而且是卡脖子的那个环节。
AI 训练和推理的核心瓶颈不是算力不够,而是数据喂给 GPU 的速度不够快。GPU 算得极快,内存带宽跟不上,GPU 就在那里空转等数据。这就是为什么 HBM(高带宽内存)会成为最紧俏的零件——它直接堆叠在 GPU 芯片上,带宽比普通 DDR5 高出十倍以上。
一张 H100 里有 80GB HBM,带宽达 3.35TB/s。这个规格普通 DRAM 根本达不到,只有三星、SK 海力士、美光能生产,产能极度有限。
简单说:SSD 决定你能存多少数据,内存决定 AI 能跑多快。后者直接卡住了 AI 性能的天花板。
本文版权归属原作者/机构所有。
当前内容仅代表作者观点,与本平台立场无关。内容仅供投资者参考,亦不构成任何投资建议。如对本平台提供的内容服务有任何疑问或建议,请联系我们。





