內存在 AI 裏扮演的是"操作枱"角色,而且是卡脖子的那個環節。

AI 訓練和推理的核心瓶頸不是算力不夠,而是數據餵給 GPU 的速度不夠快。GPU 算得極快,內存帶寬跟不上,GPU 就在那裏空轉等數據。這就是為什麼 HBM(高帶寬內存)會成為最緊俏的零件——它直接堆疊在 GPU 芯片上,帶寬比普通 DDR5 高出十倍以上。

一張 H100 裏有 80GB HBM,帶寬達 3.35TB/s。這個規格普通 DRAM 根本達不到,只有三星、SK 海力士、美光能生產,產能極度有限。

簡單説:SSD 決定你能存多少數據,內存決定 AI 能跑多快。後者直接卡住了 AI 性能的天花板。

Longbridge - 彼得.林奇的交易员Jeff
彼得.林奇的交易员Jeff

【存儲行業專題報告】需求爆發&供給剛性,存儲超級成長週期

核心觀點:需求爆發&供給剛性,價格持續上漲,存儲迎來超級週期。1)AI 大模型技術超預期迭代升級,全球 Token 消耗量爆發式增長,由此帶來海量的數據存儲、處理和檢索需求,存儲行業迎來超級景氣週期。2)海外三大原廠將有限產能向高利潤 HBM 和 DDR5 產品傾斜,對消費級和低端存儲芯片產能造成嚴重擠壓,供需缺口擴大。3)存儲原廠在上輪週期產能和資本開支過度後...

本文版權歸屬原作者/機構所有。

當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。