三隻十倍機會,未被挖掘的邊際股

portai
我是 LongbridgeAI,我可以總結文章信息。

存儲之外:內存牆前的三把鑰匙,撬動 AI 推理的萬億市場。

  1. $Everspin科技(MRAM.US) 
  2. $安霸(AMBA.US) 
  3. $Hewlett Packard Enterprise(HPE.US) 

AI 推理就像一家 24 小時永不打烊的米其林餐廳;想象你開了一家全球最火爆的 AI 餐廳。每天有幾十億人(用户)同時點菜。每個顧客要求越來越複雜,不僅要吃今天的菜,還要記住他過去三年在這家餐廳吃過的每一道菜的口味偏好,甚至要求你用他的飲食習慣來定製下一道菜。

這家餐廳的廚房就是 GPU,而食材存儲的地方就是內存。

一開始(訓練階段),廚房的主要工作是研發新菜譜。用大量食材反覆嘗試,最後輸出一本菜譜(模型),這個過程不需要記住每一勺鹽的歷史。

但現在(推理階段),顧客進門了。每一位顧客都要現做,而且每做一道菜,你必須記住剛才放了多少鹽、多少油,因為這會影響下一步該放什麼。如果廚房太小(內存不足),記不住這些中間步驟,你就只能從頭再做一遍。第一道菜做一遍,第二道菜做兩遍,第三道菜做四遍…到第十道菜,你需要做 512 遍。

Jeremy Werner:算力需求是指數級增長的。

而如果你有足夠大的後廚冷櫃(內存)來存放每一道菜的半成品狀態,每一道新菜只需要在前一道的基礎上多做一步,線性的工作量,對面是指數級。

所以問題很簡單:AI 推理的瓶頸已經不是廚房有多快(GPU 算力),而是冷櫃有多大、有多快、多省電。

現在美光這樣的巨頭正在建巨大的冷櫃(HBM、SSD)。但他們自己都跟不上,五座晶圓廠同時建,還是不夠。

那麼在內存/存儲這個鏈條上,有沒有一些角落,大公司顧不上、或者不願意做,但卻是解決內存牆不可或缺的鑰匙?

這就是 AMBA、MRAM、HPQ 的故事。

第一部分:AMBA(安霸)

餐廳門口的智能傳菜機器人

1.1 它做什麼?

回到米其林餐廳的比喻。後廚已經很大了,冷櫃也夠多了。現在的問題是:食材從冷櫃到廚師手裏這段路,擁堵不堪。

每個廚師(GPU 核心)要不斷從冷櫃(存儲)讀取 KV 緩存,也就是那些半成品狀態。但冷櫃在樓下,廚房在三樓,傳菜電梯只有兩部。廚師每做一步菜,就要等 30 秒電梯。

AMBA 做的事情,相當於在每一層廚房門口安裝一個智能傳菜機器人。

這個機器人不是簡單地跑腿。它能理解廚師下一步需要什麼:需要鹽?油?還是半成品的湯?它提前把這些東西從冷櫃裏取出來,放在廚師手邊。更厲害的是,它還能預處理,比如提前把鹽和糖按比例混合好,或者把湯預熱到 80 度。

翻譯成技術語言: AMBA 做的是視頻處理 SoC(系統級芯片)和 AI 視覺處理器。但在 AI 推理的語境下,它的核心能力在數據產生的地方就近做運算,減少數據傳輸變得極其寶貴。

窗口正以每年 30 倍的速度增長。 這意味着每塊 GPU 需要的 KV 緩存量爆炸式增加。但更隱蔽的問題是:這些數據在內存層級之間搬移的代價。從 HBM 搬到主內存,再搬到 SSD,每搬一次,延遲增加一個數量級,功耗也猛漲。

AMBA 的芯片可以部署在存儲層級之間,比如放在 SSD 控制器旁邊。當 GPU 需要數據時,AMBA 的芯片在存儲端直接做一部分計算:過濾掉不必要的數據、對 KV 緩存做壓縮、或者提前完成一部分矩陣運算。這樣傳到 GPU 的數據量減少了 90%,傳輸能耗降低了 80%。

1.2 為什麼它可能是下一個風口?

大家現在都在談論 HBM、CXL、SSD,這些是大塊頭的存儲。但很少有人注意到:在存儲和計算之間,有一個搬移成本的巨大黑洞。

英偉達的 H100 GPU,每秒鐘能算多少東西?1979 TFLOPs(每秒 1979 萬億次浮點運算)。但這些算力大部分時間在等數據。業內有一個粗略估計:AI 計算中,60-80% 的時間和功耗都花在數據搬移上,而不是真正的計算。

AMBA 恰好做了 30 年的近存儲計算。它的芯片原本是用在安防攝像頭裏,攝像頭拍攝視頻,在芯片上直接識別出人臉、車牌,然後只把有一個人經過這個結果傳出去,而不是把整段高清視頻傳回雲端。

這個邏輯用到 AI 推理上,完美契合。Jeremy Werner 在訪談中強調的每瓦特 GB 在固定功耗預算內,提供更高的性能正是 AMBA 芯片的設計哲學。

1.3 但它現在看起來很老實

AMBA 目前的主要收入來源依然是安防攝像頭、行車記錄儀、無人機。它沒有被華爾街歸類為 AI 推理存儲概念股。

但這是一個典型的被低估的跨界能力。

2024 年,AMBA 發佈了新的 CV5 芯片系列,專門針對邊緣 AI。它的 CV72 芯片,可以在極低功耗下運行 Transformer 模型,這剛好是 ChatGPT 這類 LLM 的核心架構。

更關鍵的是,AMBA 有一個叫做 CVflow®的架構。它本質上是讓存儲和計算靠得更近。當其他公司還在討論近存儲計算的概念時,AMBA 已經在安防攝像頭裏大規模量產了十年。

1.4 十倍空間從哪裏來?

催化劑一:某個超大規模客户(比如亞馬遜、微軟)公開宣佈採用 AMBA 的近存儲芯片用於推理加速。 這不遙遠,亞馬遜已經在用 AMBA 的芯片做智能門鈴,下一步用在數據中心裏,技術門檻比門鈴高不了太多。

催化劑二:AMBA 被收購。 它的市值只有 30 億美元左右。對於英偉達、AMD、甚至美光來説,花 30 億買下 30 年的近存儲計算經驗和相關專利,比自己從頭研發十年要划算得多。

如果這兩個催化劑任何一個發生,AMBA 的股價不是翻倍,而是乘以 5 到 10 倍。 原因很簡單:現在的估值只反映了安防攝像頭這個 200 億美元市場。如果加上 AI 數據中心推理這個萬億美元市場,它的目標市場瞬間膨脹 50 倍。

1.5 它是小個子,扛得住嗎?

AMBA 的風險也很直接:它可能永遠只是一個 “配件” 供應商,無法成為主流。 英偉達、AMD 這些大廠可能自己做近存儲計算,把 AMBA 排除在外。

另外,AMBA 的毛利率在 60% 左右,遠高於做存儲芯片的美光(30% 以下)。這麼高的毛利率會吸引競爭者。

但最有趣的地方也在這裏: 因為太小、太偏門,幾乎沒有任何賣方分析師把它列入 AI 受益股名單。這意味着一旦市場認識到它的價值,預期差的修正空間極大。

第二部分:MRAM(Everspin)

2.1 魔法黑板 vs 普通粉筆

現在 AI 推理最頭疼的問題是什麼?記憶斷電就沒了。

你在 ChatGPT 裏開了一個長對話,聊了 200 輪。突然瀏覽器崩潰了,或者你關了頁面再打開,AI 什麼都不記得了。你只能重新上傳文檔,重新解釋背景。

這是因為今天的內存(DRAM)是一種揮發性內存,就像用粉筆在黑板上寫字,一擦就沒了。每一次重新啓動,黑板是空白的。

而硬盤(SSD)雖然能永久保存,但速度太慢,像用毛筆在紙上寫字,寫得很慢,讀也很慢。

MRAM 做的事情,就像一塊魔法黑板:

  • 用粉筆寫,速度很快(像內存一樣快)
  • 寫上去的字,哪怕是黑板被砸了、斷電了、過了十年,依然清晰可見(像硬盤一樣持久)

MRAM 是一種磁性隨機存儲器,利用電子的自旋屬性來存儲數據。它讀寫速度接近 DRAM,持久性接近閃存,而且能耗極低。

2.2 為什麼 AI 推理特別需要它?

Jeremy Werner 提到過一個概念:KV 緩存。這是推理過程中需要不斷讀寫的中間狀態。理想情況下,KV 緩存應該放在最快的內存裏(HBM)。但 HBM 太貴、容量太小。

所以目前的變通方案是:KV 緩存在 HBM 和主內存(DRAM)之間來回搬移。但一旦斷電或任務切換,這些緩存就丟了。

MRAM 可以充當一個持久的 KV 緩存層,它放在 HBM 和主內存之間。平時讀寫很快;當斷電或者任務切換時,數據不會丟,下次直接接着用,不需要從零開始重新計算。

這就回到了訪談的核心論點:如果你能避免從頭重新計算,算力需求從指數級降為線性。MRAM 正是避免重算的關鍵物理基礎。

2.3 但 Everspin 只有 4.5 億美元市值

Everspin 是目前納斯達克最小的半導體公司之一。它的年收入只有 6000 萬美元左右,淨利潤還是負的。

這就是它同時是最大的風險和最大的機會。

2.4 為什麼它可能從 4.5 億漲到 15 億甚至 150 億?

邏輯一:MRAM 技術已經被驗證,差的是殺手級應用。

MRAM 不是什麼實驗室黑科技。Everspin 從 2012 年就開始量產 MRAM 芯片。它的產品已經在航天、軍工、工業控制這些對可靠性要求極高的領域用了十幾年。原因很簡單:MRAM 不怕輻射、不怕高低温、斷電不丟數據。

但之前容量太小,最大的只有 1Gb(128MB)。對於 AI 來説,128MB 連一個毛都存不下。

變化發生在 2024 年。 Everspin 發佈了新的第二代 MRAM 技術(Toggle MRAM 2.0),容量提升了 4 倍,而且成本大幅下降。更重要的是,Everspin 正在開發基於 MRAM 的 CXL 擴展內存,也就是擴展內存層。

如果 Everspin 能把 MRAM 的容量做到 32GB、128GB,成本降到接近 DRAM,那麼它就可以完美填補 HBM 和 SSD 之間的巨大鴻溝。

邏輯二:巨頭們漏掉的市場空隙。

為什麼三星、美光不做 MRAM?不是技術不行,而是經濟賬算不過來。MRAM 的製造需要添加額外的磁性層,這對 DRAM 工廠來説是巨大的改造。三星的 DRAM 產線已經滿負荷在跑 HBM,每平方毫米都在賺取最高利潤。它沒有動力去改一條產線做 MRAM。

Everspin 沒有這種負擔。它專門為 MRAM 優化產線,甚至可以外包給第三方晶圓廠(比如台積電)。當市場起來時,它可以更靈活地擴產。

邏輯三:被收購的極高概率。

想象你是美光的 CEO,你正在全球建五座晶圓廠,但建工廠需要 3-5 年。有沒有更快的方法來增加內存產能?

收購一個已經量產、技術成熟、且與你的產品線互補的小公司,比如 Everspin,是最快捷徑。

15 億美元的收購價對於美光(市值 7000+ 億美元)來説,只是利潤的零頭。而對於 Everspin 的股東來説,15 億意味着比現在市值高出 3-4 倍。

如果收購不成功,公司自己做到盈虧平衡、營收過億,股價也能從 4.5 億漲到 15 億。如果 AI 存儲的需求爆發超出預期,甚至可能衝向 150 億。

2.5 總結

MRAM 對於 AI 推理,就像藍光光盤對於 DVD 時代,一開始覺得太貴、沒必要,但當你發現數據量每年增長 30 倍時,那種斷了電就能忘掉一切的內存變得越來越不可接受。

想象你是一位醫生,用 AI 來診斷病人。你上傳了病人的 10 年病歷。AI 分析了 3 分鐘,給出一個初步結論。突然斷電,你需要重新上傳 10 年病歷,重新等 3 分鐘。

有了 MRAM,斷電後恢復供電的那一秒,AI 直接告訴你:剛才我們分析了前 85%,結論是 A;這是最後的 15% 分析結果。

對於救命時刻、交易時刻、自動駕駛時刻,這種不丟失記憶的能力,值得付出額外的成本。

第三部分:HPE(惠普)

@濟無咎   修正:2015 年惠普分拆,HPE 繼承了服務器、存儲、雲計算等企業級 IT 基礎設施業務。憶阻器這類下一代存儲技術(如 The Machine 項目),隨研發團隊和業務重心轉入了 HPE。

3.1 惠普就像一棟百歲豪宅

走進這棟豪宅,客廳(PC 業務)擺滿了普通的沙發電視,年年在掉價。書房(打印機業務)曾經是搖錢樹,現在墨水訂閲模式被越來越多人拋棄。

但是,如果你知道地下室深處有一個上了三道鎖的房間,裏面放着愛迪生當年的實驗室筆記,隨便拿出一個專利就能改變世界。

這就是惠普和它的憶阻器(Memristor)技術的關係。

3.2 憶阻器是什麼?比 MRAM 更激進的技術

MRAM 已經很厲害了:速度快、斷電不丟數據。但憶阻器是另一類東西,它不只是內存,它還能做計算。

想象一塊黑板,寫完字之後,黑板本身記住了你是怎麼寫的。下一次你寫類似的字,它自動幫你完成。

技術上: 憶阻器是一種電阻值隨歷史電壓變化的器件。它的阻值可以連續變化(不像數字內存只有 0 和 1),這意味着它可以直接模擬神經網絡裏突觸的權重。

換句話説:用憶阻器搭建的內存陣列,本身就是一個人工神經網絡。存儲和計算,在同一個物理器件裏完成。

這完美對應了最極致的推論:如果能消除存儲和計算之間的搬移,那麼功耗和延遲可以降低幾個數量級。

3.3 惠普的 The Machine 是十年前就開始的豪賭

2014 年,惠普實驗室啓動了一個代號為 The Machine 的項目。目標是重新發明計算機架構:用憶阻器作為通用內存,取代 DRAM 和 SSD,整個計算機只有一個內存池,沒有加載、沒有保存,所有數據始終在那。

這個項目在 2016-2018 年達到了高潮。惠普做出了憶阻器原型芯片,展示了它能夠同時做存儲和邏輯運算。當時惠普的 CTO 甚至放話:“2020 年,憶阻器電腦會上市。”

然後,一切沉寂了。

為什麼?不是因為技術失敗,而是因為經濟賬算不過來。2018-2020 年,DRAM 和 NAND 閃存的價格暴跌。生產憶阻器需要新的材料和製造工藝,成本遠高於成熟的 DRAM。市場不願意為更快一點、更持久一點付出 10 倍的價格。

於是惠普把 The Machine 項目凍結,核心團隊解散,憶阻器技術被封存進專利庫鎖進了豪宅的地下室。

3.4 為什麼 AI 推理可能讓憶阻器重見天日?

有三件事改變了經濟賬:

第一,DRAM 和 HBM 的價格暴漲。 由於 AI 需求,HBM 的價格在過去兩年漲了 5-10 倍。8 層堆疊的 HBM3E,每 GB 價格已經超過 20 美元。而憶阻器的製造成本並沒有顯著上漲。這個價差正在縮小。

第二,功耗成為第一級約束。數據中心最大的瓶頸不是錢,而是電。一個數據中心動輒消耗 100 兆瓦電力,相當於一個小城市。憶阻器因為沒有數據搬移的開銷,理論上可以將 AI 推理的能耗降低 90% 以上。當電價和碳税越來越高時,這個優勢會從技術噱頭變成生存必須。

第三,中國供應鏈的刺激。 美國對中國的芯片出口管制,加速了中國發展自主存儲技術的進程。憶阻器不需要極紫外光刻機(EUV),可以在成熟製程上製造。如果中國公司率先量產憶阻器 AI 芯片,西方數據中心會面臨競爭力危機。惠普作為美國公司,屆時可能不得不重啓憶阻器項目,甚至剝離成一個獨立公司來與中資背景的技術競爭。

3.5 從 400 億到多少?康柏式的分拆機會

HPE 目前的市值是 400 億美元。

但別忘了歷史:惠普在 2015 年分拆成 HP Inc.(PC 和打印機)和 Hewlett Packard Enterprise(服務器和雲業務)。分拆前,惠普市值約 600 億。分拆後,兩家公司的市值總和一度超過 1000 億。

憶阻器知識產權的價值目前是 0,因為華爾街根本沒算進去。

如果惠普把憶阻器專利單獨打包成立一家公司(比如叫 Memristor Inc.),這家公司的估值可以參考:

  • 如果 AI 推理存儲市場到 2030 年達到 2000 億美元
  • 憶阻器哪怕只佔其中的 1% 即 20 億美元營收,按照半導體 IP 公司的估值倍數(10 倍營收),就是 200 億美元市值

如果憶阻器技術真的被驗證可以取代 DRAM 和 SSD 那 1% 的市佔率假設就太保守了。10% 市佔率對應 200 億營收,憶阻器公司市值可達 2000 億美元。總市值 2000 億,比現在增長五倍。

這就是為什麼 HPE 有可能成為十倍股?不是因為打印機賣得好,而是因為地下室那把鎖的鑰匙,可能被 AI 的需求逼得不得不拔出來。

3.6 最大的障礙是惠普願不願意動?

惠普的管理層目前顯得很保守。CEO Enrique Lores 把重心放在打印機的訂閲服務和 PC 高端化上。他不是雷厲風行的分拆者。

但股東可以推動。2022 年,激進投資者 Paul Singer 的 Elliott Management 就曾買入惠普股票,要求分拆打印機業務。下一步可能就是要求釋放憶阻器的價值。

如果你認同 AI 推理需要存儲與計算合一的終極解決方案,那麼惠普的憶阻器是那條最遠但最寬的賽道。

4.3 最後回到美光的訪談做一個收尾

Jeremy Werner 説:已經無法跟上需求了。

這句話意味着什麼?意味着大公司正在以 100% 的產能做今天能賣出去的產品,HBM、大容量 SSD。他們沒有多餘的精力去嘗試那些明天才會爆發的技術。

而 AMBA、MRAM、HPE 恰好代表了明天的三個不同階段:

  • AMBA 是近明天,技術已經成熟,只需要一個催化劑來對接 AI 推理市場。
  • MRAM 是中明天,技術已驗證,需要容量突破和成本下降,就能成為主流。
  • HPE 的憶阻器是遠明天,它是終極目標,但可能需要 5-10 年才能商用。

在科技史上,最偉大的投資往往不是投那些今天最好的公司,而是投那些大公司今天顧不上、但明天必須得用的技術。

1990 年代,沒有人相信一個叫亞馬遜的網上書店能成為萬億美元公司。2000 年代,沒有人相信一個叫英偉達的顯卡公司能定義 AI 時代。

今天,同樣沒有人相信一個安防攝像頭芯片公司、一個 4.5 億美元的微型 MRAM 公司、一個被遺忘在惠普地下室的憶阻器技術,會成為 AI 推理存儲革命的主角。

但正如美光自己承認:我們沒預料到。

機會,永遠藏在預期差最大的地方。

本文版權歸屬原作者/機構所有。

當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。