--- title: "三只十倍机会,未被挖掘的边际股" type: "Topics" locale: "en" url: "https://longbridge.com/en/topics/40459724.md" description: "存储之外:内存墙前的三把钥匙,撬动 AI 推理的万亿市场。$Everspin Tech(MRAM.US) $Ambarella(AMBA.US) $Hewlett Packard Enterprise(HPE.US) AI 推理就像一家 24 小时永不打烊的米其林餐厅;想象你开了一家全球最火爆的 AI 餐厅。每天有几十亿人(用户)同时点菜。每个顾客要求越来越复杂,不仅要吃今天的菜..." datetime: "2026-05-06T07:32:07.000Z" locales: - [en](https://longbridge.com/en/topics/40459724.md) - [zh-CN](https://longbridge.com/zh-CN/topics/40459724.md) - [zh-HK](https://longbridge.com/zh-HK/topics/40459724.md) author: "[奇迹的交易员cola](https://longbridge.com/en/profiles/10743314.md)" --- # 三只十倍机会,未被挖掘的边际股 > 存储之外:内存墙前的三把钥匙,撬动 AI 推理的万亿市场。 1. $Everspin Tech(MRAM.US)  2. $Ambarella(AMBA.US)  3. $Hewlett Packard Enterprise(HPE.US)  AI 推理就像一家 24 小时永不打烊的米其林餐厅;想象你开了一家全球最火爆的 AI 餐厅。每天有几十亿人(用户)同时点菜。每个顾客要求越来越复杂,不仅要吃今天的菜,还要记住他过去三年在这家餐厅吃过的每一道菜的口味偏好,甚至要求你用他的饮食习惯来定制下一道菜。 这家餐厅的厨房就是 GPU,而食材存储的地方就是内存。 一开始(训练阶段),厨房的主要工作是研发新菜谱。用大量食材反复尝试,最后输出一本菜谱(模型),这个过程不需要记住每一勺盐的历史。 但现在(推理阶段),顾客进门了。每一位顾客都要现做,而且每做一道菜,你必须记住刚才放了多少盐、多少油,因为这会影响下一步该放什么。如果厨房太小(内存不足),记不住这些中间步骤,你就只能从头再做一遍。第一道菜做一遍,第二道菜做两遍,第三道菜做四遍…到第十道菜,你需要做 512 遍。 > Jeremy Werner:算力需求是指数级增长的。 而如果你有足够大的后厨冷柜(内存)来存放每一道菜的半成品状态,每一道新菜只需要在前一道的基础上多做一步,线性的工作量,对面是指数级。 所以问题很简单:AI 推理的瓶颈已经不是厨房有多快(GPU 算力),而是冷柜有多大、有多快、多省电。 现在美光这样的巨头正在建巨大的冷柜(HBM、SSD)。但他们自己都跟不上,五座晶圆厂同时建,还是不够。 那么在内存/存储这个链条上,有没有一些角落,大公司顾不上、或者不愿意做,但却是解决内存墙不可或缺的钥匙? 这就是 AMBA、MRAM、HPQ 的故事。 第一部分:AMBA(安霸) > 餐厅门口的智能传菜机器人 1.1 它做什么? 回到米其林餐厅的比喻。后厨已经很大了,冷柜也够多了。现在的问题是:食材从冷柜到厨师手里这段路,拥堵不堪。 每个厨师(GPU 核心)要不断从冷柜(存储)读取 KV 缓存,也就是那些半成品状态。但冷柜在楼下,厨房在三楼,传菜电梯只有两部。厨师每做一步菜,就要等 30 秒电梯。 AMBA 做的事情,相当于在每一层厨房门口安装一个智能传菜机器人。 这个机器人不是简单地跑腿。它能理解厨师下一步需要什么:需要盐?油?还是半成品的汤?它提前把这些东西从冷柜里取出来,放在厨师手边。更厉害的是,它还能预处理,比如提前把盐和糖按比例混合好,或者把汤预热到 80 度。 翻译成技术语言: AMBA 做的是视频处理 SoC(系统级芯片)和 AI 视觉处理器。但在 AI 推理的语境下,它的核心能力在数据产生的地方就近做运算,减少数据传输变得极其宝贵。 窗口正以每年 30 倍的速度增长。 这意味着每块 GPU 需要的 KV 缓存量爆炸式增加。但更隐蔽的问题是:这些数据在内存层级之间搬移的代价。从 HBM 搬到主内存,再搬到 SSD,每搬一次,延迟增加一个数量级,功耗也猛涨。 AMBA 的芯片可以部署在存储层级之间,比如放在 SSD 控制器旁边。当 GPU 需要数据时,AMBA 的芯片在存储端直接做一部分计算:过滤掉不必要的数据、对 KV 缓存做压缩、或者提前完成一部分矩阵运算。这样传到 GPU 的数据量减少了 90%,传输能耗降低了 80%。 1.2 为什么它可能是下一个风口? 大家现在都在谈论 HBM、CXL、SSD,这些是大块头的存储。但很少有人注意到:在存储和计算之间,有一个搬移成本的巨大黑洞。 英伟达的 H100 GPU,每秒钟能算多少东西?1979 TFLOPs(每秒 1979 万亿次浮点运算)。但这些算力大部分时间在等数据。业内有一个粗略估计:AI 计算中,60-80% 的时间和功耗都花在数据搬移上,而不是真正的计算。 AMBA 恰好做了 30 年的近存储计算。它的芯片原本是用在安防摄像头里,摄像头拍摄视频,在芯片上直接识别出人脸、车牌,然后只把有一个人经过这个结果传出去,而不是把整段高清视频传回云端。 这个逻辑用到 AI 推理上,完美契合。Jeremy Werner 在访谈中强调的每瓦特 GB 在固定功耗预算内,提供更高的性能正是 AMBA 芯片的设计哲学。 1.3 但它现在看起来很老实 AMBA 目前的主要收入来源依然是安防摄像头、行车记录仪、无人机。它没有被华尔街归类为 AI 推理存储概念股。 但这是一个典型的被低估的跨界能力。 2024 年,AMBA 发布了新的 CV5 芯片系列,专门针对边缘 AI。它的 CV72 芯片,可以在极低功耗下运行 Transformer 模型,这刚好是 ChatGPT 这类 LLM 的核心架构。 更关键的是,AMBA 有一个叫做 CVflow®的架构。它本质上是让存储和计算靠得更近。当其他公司还在讨论近存储计算的概念时,AMBA 已经在安防摄像头里大规模量产了十年。 1.4 十倍空间从哪里来? 催化剂一:某个超大规模客户(比如亚马逊、微软)公开宣布采用 AMBA 的近存储芯片用于推理加速。 这不遥远,亚马逊已经在用 AMBA 的芯片做智能门铃,下一步用在数据中心里,技术门槛比门铃高不了太多。 催化剂二:AMBA 被收购。 它的市值只有 30 亿美元左右。对于英伟达、AMD、甚至美光来说,花 30 亿买下 30 年的近存储计算经验和相关专利,比自己从头研发十年要划算得多。 如果这两个催化剂任何一个发生,AMBA 的股价不是翻倍,而是乘以 5 到 10 倍。 原因很简单:现在的估值只反映了安防摄像头这个 200 亿美元市场。如果加上 AI 数据中心推理这个万亿美元市场,它的目标市场瞬间膨胀 50 倍。 1.5 它是小个子,扛得住吗? AMBA 的风险也很直接:它可能永远只是一个 “配件” 供应商,无法成为主流。 英伟达、AMD 这些大厂可能自己做近存储计算,把 AMBA 排除在外。 另外,AMBA 的毛利率在 60% 左右,远高于做存储芯片的美光(30% 以下)。这么高的毛利率会吸引竞争者。 但最有趣的地方也在这里: 因为太小、太偏门,几乎没有任何卖方分析师把它列入 AI 受益股名单。这意味着一旦市场认识到它的价值,预期差的修正空间极大。 第二部分:MRAM(Everspin) 2.1 魔法黑板 vs 普通粉笔 现在 AI 推理最头疼的问题是什么?记忆断电就没了。 你在 ChatGPT 里开了一个长对话,聊了 200 轮。突然浏览器崩溃了,或者你关了页面再打开,AI 什么都不记得了。你只能重新上传文档,重新解释背景。 这是因为今天的内存(DRAM)是一种挥发性内存,就像用粉笔在黑板上写字,一擦就没了。每一次重新启动,黑板是空白的。 而硬盘(SSD)虽然能永久保存,但速度太慢,像用毛笔在纸上写字,写得很慢,读也很慢。 MRAM 做的事情,就像一块魔法黑板: - 用粉笔写,速度很快(像内存一样快) - 写上去的字,哪怕是黑板被砸了、断电了、过了十年,依然清晰可见(像硬盘一样持久) MRAM 是一种磁性随机存储器,利用电子的自旋属性来存储数据。它读写速度接近 DRAM,持久性接近闪存,而且能耗极低。 2.2 为什么 AI 推理特别需要它? Jeremy Werner 提到过一个概念:KV 缓存。这是推理过程中需要不断读写的中间状态。理想情况下,KV 缓存应该放在最快的内存里(HBM)。但 HBM 太贵、容量太小。 所以目前的变通方案是:KV 缓存在 HBM 和主内存(DRAM)之间来回搬移。但一旦断电或任务切换,这些缓存就丢了。 MRAM 可以充当一个持久的 KV 缓存层,它放在 HBM 和主内存之间。平时读写很快;当断电或者任务切换时,数据不会丢,下次直接接着用,不需要从零开始重新计算。 这就回到了访谈的核心论点:如果你能避免从头重新计算,算力需求从指数级降为线性。MRAM 正是避免重算的关键物理基础。 2.3 但 Everspin 只有 4.5 亿美元市值 Everspin 是目前纳斯达克最小的半导体公司之一。它的年收入只有 6000 万美元左右,净利润还是负的。 这就是它同时是最大的风险和最大的机会。 2.4 为什么它可能从 4.5 亿涨到 15 亿甚至 150 亿? 逻辑一:MRAM 技术已经被验证,差的是杀手级应用。 MRAM 不是什么实验室黑科技。Everspin 从 2012 年就开始量产 MRAM 芯片。它的产品已经在航天、军工、工业控制这些对可靠性要求极高的领域用了十几年。原因很简单:MRAM 不怕辐射、不怕高低温、断电不丢数据。 但之前容量太小,最大的只有 1Gb(128MB)。对于 AI 来说,128MB 连一个毛都存不下。 变化发生在 2024 年。 Everspin 发布了新的第二代 MRAM 技术(Toggle MRAM 2.0),容量提升了 4 倍,而且成本大幅下降。更重要的是,Everspin 正在开发基于 MRAM 的 CXL 扩展内存,也就是扩展内存层。 如果 Everspin 能把 MRAM 的容量做到 32GB、128GB,成本降到接近 DRAM,那么它就可以完美填补 HBM 和 SSD 之间的巨大鸿沟。 逻辑二:巨头们漏掉的市场空隙。 为什么三星、美光不做 MRAM?不是技术不行,而是经济账算不过来。MRAM 的制造需要添加额外的磁性层,这对 DRAM 工厂来说是巨大的改造。三星的 DRAM 产线已经满负荷在跑 HBM,每平方毫米都在赚取最高利润。它没有动力去改一条产线做 MRAM。 Everspin 没有这种负担。它专门为 MRAM 优化产线,甚至可以外包给第三方晶圆厂(比如台积电)。当市场起来时,它可以更灵活地扩产。 逻辑三:被收购的极高概率。 想象你是美光的 CEO,你正在全球建五座晶圆厂,但建工厂需要 3-5 年。有没有更快的方法来增加内存产能? 收购一个已经量产、技术成熟、且与你的产品线互补的小公司,比如 Everspin,是最快捷径。 15 亿美元的收购价对于美光(市值 7000+ 亿美元)来说,只是利润的零头。而对于 Everspin 的股东来说,15 亿意味着比现在市值高出 3-4 倍。 如果收购不成功,公司自己做到盈亏平衡、营收过亿,股价也能从 4.5 亿涨到 15 亿。如果 AI 存储的需求爆发超出预期,甚至可能冲向 150 亿。 2.5 总结 MRAM 对于 AI 推理,就像蓝光光盘对于 DVD 时代,一开始觉得太贵、没必要,但当你发现数据量每年增长 30 倍时,那种断了电就能忘掉一切的内存变得越来越不可接受。 想象你是一位医生,用 AI 来诊断病人。你上传了病人的 10 年病历。AI 分析了 3 分钟,给出一个初步结论。突然断电,你需要重新上传 10 年病历,重新等 3 分钟。 有了 MRAM,断电后恢复供电的那一秒,AI 直接告诉你:刚才我们分析了前 85%,结论是 A;这是最后的 15% 分析结果。 对于救命时刻、交易时刻、自动驾驶时刻,这种不丢失记忆的能力,值得付出额外的成本。 第三部分:HPE(惠普) @济无咎   修正:2015 年惠普分拆,HPE 继承了服务器、存储、云计算等企业级 IT 基础设施业务。忆阻器这类下一代存储技术(如 The Machine 项目),随研发团队和业务重心转入了 HPE。 3.1 惠普就像一栋百岁豪宅 走进这栋豪宅,客厅(PC 业务)摆满了普通的沙发电视,年年在掉价。书房(打印机业务)曾经是摇钱树,现在墨水订阅模式被越来越多人抛弃。 但是,如果你知道地下室深处有一个上了三道锁的房间,里面放着爱迪生当年的实验室笔记,随便拿出一个专利就能改变世界。 这就是惠普和它的忆阻器(Memristor)技术的关系。 3.2 忆阻器是什么?比 MRAM 更激进的技术 MRAM 已经很厉害了:速度快、断电不丢数据。但忆阻器是另一类东西,它不只是内存,它还能做计算。 想象一块黑板,写完字之后,黑板本身记住了你是怎么写的。下一次你写类似的字,它自动帮你完成。 技术上: 忆阻器是一种电阻值随历史电压变化的器件。它的阻值可以连续变化(不像数字内存只有 0 和 1),这意味着它可以直接模拟神经网络里突触的权重。 换句话说:用忆阻器搭建的内存阵列,本身就是一个人工神经网络。存储和计算,在同一个物理器件里完成。 这完美对应了最极致的推论:如果能消除存储和计算之间的搬移,那么功耗和延迟可以降低几个数量级。 3.3 惠普的 The Machine 是十年前就开始的豪赌 2014 年,惠普实验室启动了一个代号为 The Machine 的项目。目标是重新发明计算机架构:用忆阻器作为通用内存,取代 DRAM 和 SSD,整个计算机只有一个内存池,没有加载、没有保存,所有数据始终在那。 这个项目在 2016-2018 年达到了高潮。惠普做出了忆阻器原型芯片,展示了它能够同时做存储和逻辑运算。当时惠普的 CTO 甚至放话:“2020 年,忆阻器电脑会上市。” 然后,一切沉寂了。 为什么?不是因为技术失败,而是因为经济账算不过来。2018-2020 年,DRAM 和 NAND 闪存的价格暴跌。生产忆阻器需要新的材料和制造工艺,成本远高于成熟的 DRAM。市场不愿意为更快一点、更持久一点付出 10 倍的价格。 于是惠普把 The Machine 项目冻结,核心团队解散,忆阻器技术被封存进专利库锁进了豪宅的地下室。 3.4 为什么 AI 推理可能让忆阻器重见天日? 有三件事改变了经济账: 第一,DRAM 和 HBM 的价格暴涨。 由于 AI 需求,HBM 的价格在过去两年涨了 5-10 倍。8 层堆叠的 HBM3E,每 GB 价格已经超过 20 美元。而忆阻器的制造成本并没有显著上涨。这个价差正在缩小。 第二,功耗成为第一级约束。数据中心最大的瓶颈不是钱,而是电。一个数据中心动辄消耗 100 兆瓦电力,相当于一个小城市。忆阻器因为没有数据搬移的开销,理论上可以将 AI 推理的能耗降低 90% 以上。当电价和碳税越来越高时,这个优势会从技术噱头变成生存必须。 第三,中国供应链的刺激。 美国对中国的芯片出口管制,加速了中国发展自主存储技术的进程。忆阻器不需要极紫外光刻机(EUV),可以在成熟制程上制造。如果中国公司率先量产忆阻器 AI 芯片,西方数据中心会面临竞争力危机。惠普作为美国公司,届时可能不得不重启忆阻器项目,甚至剥离成一个独立公司来与中资背景的技术竞争。 3.5 从 400 亿到多少?康柏式的分拆机会 HPE 目前的市值是 400 亿美元。 但别忘了历史:惠普在 2015 年分拆成 HP Inc.(PC 和打印机)和 Hewlett Packard Enterprise(服务器和云业务)。分拆前,惠普市值约 600 亿。分拆后,两家公司的市值总和一度超过 1000 亿。 忆阻器知识产权的价值目前是 0,因为华尔街根本没算进去。 如果惠普把忆阻器专利单独打包成立一家公司(比如叫 Memristor Inc.),这家公司的估值可以参考: - 如果 AI 推理存储市场到 2030 年达到 2000 亿美元 - 忆阻器哪怕只占其中的 1% 即 20 亿美元营收,按照半导体 IP 公司的估值倍数(10 倍营收),就是 200 亿美元市值 如果忆阻器技术真的被验证可以取代 DRAM 和 SSD 那 1% 的市占率假设就太保守了。10% 市占率对应 200 亿营收,忆阻器公司市值可达 2000 亿美元。总市值 2000 亿,比现在增长五倍。 这就是为什么 HPE 有可能成为十倍股?不是因为打印机卖得好,而是因为地下室那把锁的钥匙,可能被 AI 的需求逼得不得不拔出来。 3.6 最大的障碍是惠普愿不愿意动? 惠普的管理层目前显得很保守。CEO Enrique Lores 把重心放在打印机的订阅服务和 PC 高端化上。他不是雷厉风行的分拆者。 但股东可以推动。2022 年,激进投资者 Paul Singer 的 Elliott Management 就曾买入惠普股票,要求分拆打印机业务。下一步可能就是要求释放忆阻器的价值。 如果你认同 AI 推理需要存储与计算合一的终极解决方案,那么惠普的忆阻器是那条最远但最宽的赛道。 4.3 最后回到美光的访谈做一个收尾 Jeremy Werner 说:已经无法跟上需求了。 这句话意味着什么?意味着大公司正在以 100% 的产能做今天能卖出去的产品,HBM、大容量 SSD。他们没有多余的精力去尝试那些明天才会爆发的技术。 而 AMBA、MRAM、HPE 恰好代表了明天的三个不同阶段: - AMBA 是近明天,技术已经成熟,只需要一个催化剂来对接 AI 推理市场。 - MRAM 是中明天,技术已验证,需要容量突破和成本下降,就能成为主流。 - HPE 的忆阻器是远明天,它是终极目标,但可能需要 5-10 年才能商用。 在科技史上,最伟大的投资往往不是投那些今天最好的公司,而是投那些大公司今天顾不上、但明天必须得用的技术。 1990 年代,没有人相信一个叫亚马逊的网上书店能成为万亿美元公司。2000 年代,没有人相信一个叫英伟达的显卡公司能定义 AI 时代。 今天,同样没有人相信一个安防摄像头芯片公司、一个 4.5 亿美元的微型 MRAM 公司、一个被遗忘在惠普地下室的忆阻器技术,会成为 AI 推理存储革命的主角。 但正如美光自己承认:我们没预料到。 机会,永远藏在预期差最大的地方。 ### Related Stocks - [HPQ.US](https://longbridge.com/en/quote/HPQ.US.md) - [AMBA.US](https://longbridge.com/en/quote/AMBA.US.md) - [MU.US](https://longbridge.com/en/quote/MU.US.md) - [AMZN.US](https://longbridge.com/en/quote/AMZN.US.md) - [NVDA.US](https://longbridge.com/en/quote/NVDA.US.md) - [OpenAI.NA](https://longbridge.com/en/quote/OpenAI.NA.md) - [MSFT.US](https://longbridge.com/en/quote/MSFT.US.md) - [MRAM.US](https://longbridge.com/en/quote/MRAM.US.md) - [MSFL.US](https://longbridge.com/en/quote/MSFL.US.md) - [MSFO.US](https://longbridge.com/en/quote/MSFO.US.md) - [MSFD.US](https://longbridge.com/en/quote/MSFD.US.md) - [MSFU.US](https://longbridge.com/en/quote/MSFU.US.md) - [MSFX.US](https://longbridge.com/en/quote/MSFX.US.md) - [MSFY.US](https://longbridge.com/en/quote/MSFY.US.md) - [AMZU.US](https://longbridge.com/en/quote/AMZU.US.md) - [NVDL.US](https://longbridge.com/en/quote/NVDL.US.md) - [07788.HK](https://longbridge.com/en/quote/07788.HK.md) - [07388.HK](https://longbridge.com/en/quote/07388.HK.md) - [NVDY.US](https://longbridge.com/en/quote/NVDY.US.md) - [NVDD.US](https://longbridge.com/en/quote/NVDD.US.md) - [HPE.US](https://longbridge.com/en/quote/HPE.US.md) - [HPE-C.US](https://longbridge.com/en/quote/HPE-C.US.md) ## Comments (34) - **奇迹的交易员cola · 2026-05-06T08:24:09.000Z · 👍 13**: First, regarding storage, you want me to continue chasing it now, I don't dare. But has the demand for storage arrived? Clearly not, it might even be just beginning. So rather than chasing highs or missing out, it's better to look for untapped opportunities or margins.For unpopular stocks like AXT, - **幸运币** (2026-05-06T12:55:24.000Z): Just like I said yesterday, leveraging market biases, taking on acceptable risks, capturing excess returns, supplemented with position control, this model is simply not suitable for small capital. It' - **跟顾神反着买 · 2026-05-09T02:23:06.000Z**: Cola bro, HP is the one that was correct, you said it wrong before. - **lulu酱 · 2026-05-08T19:51:25.000Z**: In the future, after reading the articles posted by cola, you need to be more decisive in execution… - **努力赚养老钱 · 2026-05-08T15:55:17.000Z**: Thanks for cola's sharing - **Joey_invests · 2026-05-08T15:24:58.000Z**: $Hewlett Packard Enterprise(HPE.US)Bought 18 shares at 30.2 to hold, diversify the portfolio a bit - **成都八面佛 · 2026-05-08T13:51:33.000Z · 👍 2**: I had already bought in before Cola Bro posted, didn't expect to get called out by a big shot, adding more! Adding more! - **可以的话 · 2026-05-08T10:57:26.000Z**: Cola bro, personally, I think in-memory computing chips are the ideal solution for AI inference, but I haven't found a good company yet. Any recommendations? - **南明离火 · 2026-05-07T23:49:38.000Z · 👍 3**: Thank you for sharing, cola bro, very insightful 👍👍👍. However, regarding the second, and in my opinion, more reliable MRAM bull narrative, it's not about MRAM replacing HBM to become the main force for AI inference KV cache.Instead, it's that AI, robotics, military, aerospace, industrial automati - **Joey_invests · 2026-05-07T15:08:34.000Z**: $Ambarella(AMBA.US)77✖️7 buy a lottery ticket - **笨就交给大美利坚吧 · 2026-05-07T09:24:56.000Z**: Like, share, and comment, hmm, also need to take a screenshot and save it, - **新Eric · 2026-05-07T08:15:36.000Z**: Is it unpopular? - **心若春山在 · 2026-05-07T04:27:14.000Z**: Thank you! For beginners, this kind of popular science is key—being understandable and allowing for repeated viewing is greatly appreciated! - **西瓜moko · 2026-05-06T17:06:39.000Z**: Thanks bro, already bought the first one and took profits. - **黄金叶 · 2026-05-06T15:00:51.000Z**: Feels amazing, the US has too much and too far ahead in technological reserves, huh. - **leo_x · 2026-05-06T14:44:08.000Z**: Create a cola stock watchlist? - **半山外賣仔 · 2026-05-06T14:36:20.000Z**: Mark it down - **步林达 · 2026-05-06T13:07:45.000Z**: Cola put a lot of thought into this, thanks for sharing. - **红豆王 · 2026-05-06T12:59:46.000Z · 👍 2**: Cola is too strong, once again lamenting that I can only buy the index, I simply can't understand the research. - **笨就交给大美利坚吧** (2026-05-07T09:27:24.000Z): The meal is practically shoved down your throat, bro, and you still don't get it? - **红豆王** (2026-05-07T10:10:27.000Z): So your return is less than 1%, and you just go all in because someone gives you a suggestion? Shouldn't you consider how much you're investing and where your conviction lies? - **Joey_invests · 2026-05-06T11:09:52.000Z**: $Everspin Tech(MRAM.US)Let's venture a bit, buy 25 shares at $20 and hold. - **Joey_invests** (2026-05-08T15:04:46.000Z): 24% now... - **跟顾神反着买 · 2026-05-06T09:14:24.000Z**: Loved it - *... 1 more comments*