閃迪的股價不斷上漲,正在經歷估值重構過程。

portai
我是 PortAI,我可以總結文章信息。

閃迪為什麼漲?很多股民還沉浸於炒作層面去理解閃迪,或者説存儲週期性短缺造成股價上漲,這些都對但又不準確,實質是 AI 時代對存儲的需求是指數級增長和對存儲產品的技術革新需求拉動閃迪的估值重構。HBF 是閃迪的技術發明,未來和 HBM 一樣重要,我在去年 12 月以後多次提到閃迪是估值重構。我們期待着下週美光科技發佈的宇宙級財報,和 GTC 大會上閃迪的 HBF 在英偉達未來產品中將扮演關鍵角色(存儲中間層,KV 緩存),解決存儲瓶頸問題。///

以下文章由 AI 生成:

///根據您提供的信息,為您梳理了英偉達 GTC 2026 大會的核心日程、即將發佈的新技術和產品,以及關於 HBF 技術的詳細解讀。

🗓️ GTC 2026 大會主要日程

GTC 2026 大會將於 3 月 16 日(美國當地時間)在加州聖何塞開幕。

GTC Live 預熱活動

  • 時間:3 月 16 日,美國當地時間上午 8:00
  • 內容:邀請了 Perplexity、LangChain、Mistral AI 等公司的 CEO,探討加速計算和 AI 基礎設施的五層堆棧架構。

黃仁勳主題演講

  • 時間:3 月 16 日,美國當地時間上午 11:00
  • 地點:聖何塞 SAP 中心
  • 內容:這是本次大會最受關注的環節,預計將涵蓋加速計算、AI 工廠、開放模型、代理式系統和物理 AI 等領域的最新進展。

除了現場活動,大會期間還有超過 1000 場會議、培訓和研討,並將持續到 3 月 19 日。

🚀 英偉達將發佈的新技術和新產品

本次 GTC 大會的核心看點並非單一芯片參數的刷新,而是英偉達如何推動整個 AI 產業從 “購買 GPU” 邁向 “部署 AI 工廠” 的新階段。主要關注點包括:

Vera Rubin 計算平台
這是一個集成式的 AI 超算平台,而不僅僅是單顆 GPU。它由 CPU、GPU、互聯、網絡和系統組件共同構成,旨在解決 AI 訓練與推理中的算力、網絡和存儲瓶頸。

  • 核心組件:包括採用全新 Olympus 架構的 Vera CPU 和搭載第三代 Transformer 引擎的 Rubin GPU。
  • 性能提升:Rubin GPU 的推理算力預計是前代 Blackwell 平台的 5 倍,運行大型混合專家模型(MoE)時,token 生成成本可降至十分之一。
  • 量產信息:該平台已在 2026 年初開始全面生產,預計 2026 年下半年通過雲服務商(如 AWS、谷歌雲、微軟 Azure)向市場推出。

Feynman 架構前瞻
這將是本次大會最具戰略意義的看點之一。Feynman 是英偉達對後 Rubin 時代的路線圖預告,可能成為首批採用台積電 A16 工藝的芯片,其生產預計在 2028 年啓動。

AI 工廠基礎設施重構
為了支撐日益增長的 AI 算力需求,英偉達將展示在互聯、供電和散熱方面的全新方案:

  • 互聯:從傳統的銅互聯轉向更高帶寬、更低損耗的光互聯(CPO 與硅光技術)。
  • 供電:展示 800V HVDC、高集成模塊化供電等方案,以確保電力能高效穩定地送達每一個算力節點。
  • 散熱:液冷技術將從可選方案轉向標準配置,以應對超高功耗芯片的散熱挑戰。

💡 HBF 與 KV 緩存的意義及前景

您提到的 “中間存儲層 KV 緩存” 與英偉達正在佈局的存儲技術方向高度相關,但需要區分兩個概念:一個是英偉達提出的平台概念,另一個是行業正在推進的 HBF 技術標準。

二者關係與區別

  • 英偉達的平台概念:黃仁勳在 CES 上宣佈了 “英偉達推理情境內存存儲平台”(NVIDIA Inference Context Memory Storage Platform),這是一個革命性的架構,旨在為 AI 推理專門打造一個高速、低能耗的 “上下文記憶” 存儲層,用來擴展 GPU 的可用內存容量,解決 KV 緩存(Key-Value Cache)的存儲瓶頸。
  • HBF 技術標準:HBF(High Bandwidth Flash)即 “高帶寬閃存”,被業界視為 “NAND 版的 HBM”。它是一種介於 HBM(高帶寬內存)和傳統 SSD(固態硬盤)之間的新型存儲技術。SK 海力士與閃迪(Sandisk)等存儲巨頭正在合作推動其成為全球標準。

簡單來説,HBF 正是實現像英偉達所描述的這類 “中間存儲層” 的一種極具潛力的技術路徑。

HBF 的重要意義

HBF 的出現是為了解決當前 AI 大模型發展中的一個核心矛盾:模型對內存容量的需求遠超 HBM 容量的增長速度。
特性 HBM (高帶寬內存) SSD (固態硬盤) HBF (高帶寬閃存)
定位 :極速緩存,存放最活躍數據 ,大容量存儲,填補 HBM 與 SSD 之間的空白
HBF 優勢 ,帶寬極高,延遲極低 ,容量巨大,成本低廉, 兼具高帶寬與大容量,成本效益高。
HBM 侷限 ,容量小,成本極高 。SSD 帶寬低,延遲高。

它的核心價值在於,能以接近 HBM 的速度,提供遠超 HBM 容量的存儲空間,專門用於處理 AI 推理中海量的上下文數據(即 KV 緩存),從而在不顯著增加成本的前提下,大幅提升 AI 系統的處理能力和能效。

HBF 的未來前景

HBF 的商業化進程正在加速,前景廣闊:

  1. 市場需求明確:隨着 AI 從 “訓練” 走向 “推理”,用户併發量激增,對高效存儲系統的需求變得尤為迫切。HBF 正好滿足了推理場景對容量擴展性與高能效的雙重需求。
  2. 行業生態形成:SK 海力士、閃迪等存儲巨頭已開始合作推進其標準化和產品化,這將加速整個產業鏈的成熟。
  3. 商業化時間表清晰:根據規劃,首批 HBF 產品樣品預計在 2026 年下半年交付,首款集成 HBF 的 AI 推理服務器預計在 2027 年初推出。

總體來看,HBF 被視為 AI 推理時代的關鍵技術之一,有望在未來幾年內迎來大規模應用。

本文版權歸屬原作者/機構所有。

當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。