
闪迪的股价不断上涨,正在经历估值重构过程。

闪迪为什么涨?很多股民还沉浸于炒作层面去理解闪迪,或者说存储周期性短缺造成股价上涨,这些都对但又不准确,实质是 AI 时代对存储的需求是指数级增长和对存储产品的技术革新需求拉动闪迪的估值重构。HBF 是闪迪的技术发明,未来和 HBM 一样重要,我在去年 12 月以后多次提到闪迪是估值重构。我们期待着下周美光科技发布的宇宙级财报,和 GTC 大会上闪迪的 HBF 在英伟达未来产品中将扮演关键角色(存储中间层,KV 缓存),解决存储瓶颈问题。///
以下文章由 AI 生成:
///根据您提供的信息,为您梳理了英伟达 GTC 2026 大会的核心日程、即将发布的新技术和产品,以及关于 HBF 技术的详细解读。
🗓️ GTC 2026 大会主要日程
GTC 2026 大会将于 3 月 16 日(美国当地时间)在加州圣何塞开幕。
GTC Live 预热活动
- 时间:3 月 16 日,美国当地时间上午 8:00
- 内容:邀请了 Perplexity、LangChain、Mistral AI 等公司的 CEO,探讨加速计算和 AI 基础设施的五层堆栈架构。
黄仁勋主题演讲
- 时间:3 月 16 日,美国当地时间上午 11:00
- 地点:圣何塞 SAP 中心
- 内容:这是本次大会最受关注的环节,预计将涵盖加速计算、AI 工厂、开放模型、代理式系统和物理 AI 等领域的最新进展。
除了现场活动,大会期间还有超过 1000 场会议、培训和研讨,并将持续到 3 月 19 日。
🚀 英伟达将发布的新技术和新产品
本次 GTC 大会的核心看点并非单一芯片参数的刷新,而是英伟达如何推动整个 AI 产业从 “购买 GPU” 迈向 “部署 AI 工厂” 的新阶段。主要关注点包括:
Vera Rubin 计算平台
这是一个集成式的 AI 超算平台,而不仅仅是单颗 GPU。它由 CPU、GPU、互联、网络和系统组件共同构成,旨在解决 AI 训练与推理中的算力、网络和存储瓶颈。
- 核心组件:包括采用全新 Olympus 架构的 Vera CPU 和搭载第三代 Transformer 引擎的 Rubin GPU。
- 性能提升:Rubin GPU 的推理算力预计是前代 Blackwell 平台的 5 倍,运行大型混合专家模型(MoE)时,token 生成成本可降至十分之一。
- 量产信息:该平台已在 2026 年初开始全面生产,预计 2026 年下半年通过云服务商(如 AWS、谷歌云、微软 Azure)向市场推出。
Feynman 架构前瞻
这将是本次大会最具战略意义的看点之一。Feynman 是英伟达对后 Rubin 时代的路线图预告,可能成为首批采用台积电 A16 工艺的芯片,其生产预计在 2028 年启动。
AI 工厂基础设施重构
为了支撑日益增长的 AI 算力需求,英伟达将展示在互联、供电和散热方面的全新方案:
- 互联:从传统的铜互联转向更高带宽、更低损耗的光互联(CPO 与硅光技术)。
- 供电:展示 800V HVDC、高集成模块化供电等方案,以确保电力能高效稳定地送达每一个算力节点。
- 散热:液冷技术将从可选方案转向标准配置,以应对超高功耗芯片的散热挑战。
💡 HBF 与 KV 缓存的意义及前景
您提到的 “中间存储层 KV 缓存” 与英伟达正在布局的存储技术方向高度相关,但需要区分两个概念:一个是英伟达提出的平台概念,另一个是行业正在推进的 HBF 技术标准。
二者关系与区别
- 英伟达的平台概念:黄仁勋在 CES 上宣布了 “英伟达推理情境内存存储平台”(NVIDIA Inference Context Memory Storage Platform),这是一个革命性的架构,旨在为 AI 推理专门打造一个高速、低能耗的 “上下文记忆” 存储层,用来扩展 GPU 的可用内存容量,解决 KV 缓存(Key-Value Cache)的存储瓶颈。
- HBF 技术标准:HBF(High Bandwidth Flash)即 “高带宽闪存”,被业界视为 “NAND 版的 HBM”。它是一种介于 HBM(高带宽内存)和传统 SSD(固态硬盘)之间的新型存储技术。SK 海力士与闪迪(Sandisk)等存储巨头正在合作推动其成为全球标准。
简单来说,HBF 正是实现像英伟达所描述的这类 “中间存储层” 的一种极具潜力的技术路径。
HBF 的重要意义
HBF 的出现是为了解决当前 AI 大模型发展中的一个核心矛盾:模型对内存容量的需求远超 HBM 容量的增长速度。
特性 HBM (高带宽内存) SSD (固态硬盘) HBF (高带宽闪存)
定位 :极速缓存,存放最活跃数据 ,大容量存储,填补 HBM 与 SSD 之间的空白
HBF 优势 ,带宽极高,延迟极低 ,容量巨大,成本低廉, 兼具高带宽与大容量,成本效益高。
HBM 局限 ,容量小,成本极高 。SSD 带宽低,延迟高。
它的核心价值在于,能以接近 HBM 的速度,提供远超 HBM 容量的存储空间,专门用于处理 AI 推理中海量的上下文数据(即 KV 缓存),从而在不显著增加成本的前提下,大幅提升 AI 系统的处理能力和能效。
HBF 的未来前景
HBF 的商业化进程正在加速,前景广阔:
- 市场需求明确:随着 AI 从 “训练” 走向 “推理”,用户并发量激增,对高效存储系统的需求变得尤为迫切。HBF 正好满足了推理场景对容量扩展性与高能效的双重需求。
- 行业生态形成:SK 海力士、闪迪等存储巨头已开始合作推进其标准化和产品化,这将加速整个产业链的成熟。
- 商业化时间表清晰:根据规划,首批 HBF 产品样品预计在 2026 年下半年交付,首款集成 HBF 的 AI 推理服务器预计在 2027 年初推出。
总体来看,HBF 被视为 AI 推理时代的关键技术之一,有望在未来几年内迎来大规模应用。
本文版权归属原作者/机构所有。
当前内容仅代表作者观点,与本平台立场无关。内容仅供投资者参考,亦不构成任何投资建议。如对本平台提供的内容服务有任何疑问或建议,请联系我们。


