---
title: "羣聯 CEO：NAND 缺貨或持續 10 年，未來不是 “得 Token 得天下”，而是 “得存儲得天下”！"
type: "News"
locale: "zh-HK"
url: "https://longbridge.com/zh-HK/news/282695716.md"
description: "羣聯電子 CEO 潘健成表示，AI 資料產生速度是以百倍速度推進，但 NAND Flash 原廠新建廠房最多僅能增加 50% 的產能，這波缺貨潮在未來十年內恐難以完全解決，第四季度 NAND Flash 可能出現 “有錢也買不到貨” 的窘境 。“未來只要你有充足的存儲空間，就能獲得無止境的營收。”"
datetime: "2026-04-14T13:13:29.000Z"
locales:
  - [zh-CN](https://longbridge.com/zh-CN/news/282695716.md)
  - [en](https://longbridge.com/en/news/282695716.md)
  - [zh-HK](https://longbridge.com/zh-HK/news/282695716.md)
---

# 羣聯 CEO：NAND 缺貨或持續 10 年，未來不是 “得 Token 得天下”，而是 “得存儲得天下”！

人工智能正引发全球NAND Flash存储市场的结构性极度短缺。群联电子首席执行官潘健成在近日接受媒体采访时表示，并非“得Token者得天下”，**未来只要企业有充足的存储空间，“就能获得无止境的营收”。**

潘健成表示，AI资料产生速度是以百倍速度推进，但NAND Flash原厂新建厂房最多仅能增加50%的产能，他推断这波缺货潮在未来十年内恐难以完全解决。为了应对包括英伟达新GPU及苹果新品推出，**第四季度NAND Flash可能出现“有钱也买不到货”的窘境 。**"我找不到存储供过于求的理由，"他说。

为应对2026年下半年甚至第四季度可能出现的严重断货风险，群联电子已全面进入紧急备料状态。目前，该公司的NAND库存金额已突破500亿元新台币，并史无前例地启动了总额达11.8亿美元（约合430亿元新台币）的筹资计划。这笔庞大资金将被悉数用于提前锁定晶圆与存储颗粒货源，以防范“有钱也买不到货”的极端市场局面。

市场信号与机构判断共同印证了这一预警。NAND Flash价格自2026年1月以来已接近翻倍，部分时段单日涨幅达50%。摩根士丹利预计，2026年下半年成熟制程NAND供给缺口或达40%，全年涨幅逾200%；高盛则预测2026年NAND供不应求幅度为4.2%，为行业历史最大规模短缺之一。

## 筹资430亿备货，缺口高达70%

面对急速逼近的缺货危机，群联采取了一系列历史性财务动作。据媒体报道，**公司目前仅能满足约30%的客户需求，缺口高达70%。**

潘健成透露，近期有PC大厂紧急追加100万支SSD订单，美国客户亦频繁临时加单，公司必须调动各方资源才能勉强应付。他警告，若等到需求高峰才动手，届时将面临"有钱也买不到货"的困境，因此库存规划已高度精准化，主要针对已取得设计导入（Design-in）的各类项目锁定料源。

为锁定料源，群联规划完整筹资布局：包括上限8亿美元（约新台币254亿元）的海外无担保可转换公司债（ECB）、国内第三次无担保可转债60亿元新台币，以及120亿元新台币的银行联合贷款，合计筹资规模超过430亿元新台币。潘健成坦言，由于NAND Flash价格维持高位，资金压力明显加剧，公司亦与客户协议预付货款机制，共同分担备货压力。

英伟达新一代AI芯片Rubin系列即将开始出货，潘健成预判届时原厂产能将被瞬间吸纳，市场供需失衡将成常态。

## 降耗新技术反而加剧缺货

日前，谷歌一篇关于将KV Cache（键值缓存）压缩至1/8的论文引发存储行业恐慌，市场担忧AI主机对存储的单台需求将大幅缩减。潘健成对此给出了截然相反的判断。

他承认，该技术确实能将单台主机的内存和闪存占用压缩至原来的1/8，单机存储成本随之大幅下降。**但这恰恰意味着AI主机整体价格下行，更多企业和个人得以部署**——"本来供一台主机使用的内存，现在可以供给8台主机使用。"这8台机器推理所产生的数据，仍然需要外部存储，总需求反而大幅攀升。

他以群联自身研发的aiDAPTIV+技术类比：该技术通过用闪存弥补DRAM不足，让AI以更低成本运行，但"让AI产生数据的机器变得更便宜，数据产生得就会越快，后续存储缺货搞不好会更严重。"

潘健成将这一逻辑比作汽车行业：全球只生产法拉利时，能买得起的人有限，汽油消耗量也不大；一旦丰田大量造出平价车，汽油就会缺货。降低单机成本的技术创新，最终只会加速AI的普及，进而推升存储总需求。

## 消费电子承压，总需求不降反升

缺货压力在消费市场已陆续显现。潘健成预警，下半年笔记本电脑主力机型存储容量或退回256GB，消费类电子将是"最大受害者"。

然而他同时指出，总需求并未因此减少。以SSD与云服务的价格博弈为例：消费者看到SSD涨价3倍选择暂缓购买，但云服务价格涨了5倍，用户仍然争相使用。"总需求其实没有减少，反而增加了。只是有能力赚钱的企业继续买，没有能力的消费者先等一等。"

他还预判，一旦256GB笔记本下半年大量上市，约20%至30%的购买者将被迫赴售后市场将存储升级至512GB，零售市场需求由此回流。"就像一公升汽油30块，因为打仗涨到60块，你要出门还是要加油——这是刚需。"

在企业市场，群联消费类业务营收占比已降至5%至6%，企业级与工业应用已成绝对主力，且"非常缺货"。2025年群联营收同比增长23.3%，达726.64亿元新台币。

## "得存储得天下"：存储成AI时代核心资产

围绕AI与存储的深层逻辑，潘健成作出了带有战略意涵的判断：**未来的竞争关键，不在于谁拥有更多Token，而在于谁掌握充足的存储空间。**

"未来只要你有充足的存储空间，就能获得无止境的营收，"他说。他以2000年网络泡沫作类比——破灭的是互联网初创公司泡沫，而非互联网本身。2000年后人类每日数据传输量从KB级攀升至今日难以计量的规模，AI的演进轨迹将与之相似。"今天人类大量使用AI了吗？还没有。会不会？一定会。什么时候？便宜普及的时候。"

他指出，目前全球真正具备建立云端AI能力的只有美国和中国大陆两地，其他企业大多仍在观望。一旦AI应用真正落地，全球数十亿人口每人所需的一点存储空间，将汇聚为庞大且持续的结构性需求，彻底终结存储行业的传统周期律。

潘健成在庆典上宣布，向任职满一年的员工加发一个月奖金，新增奖金总额超4亿元新台币。对于未来方向，他给出了简洁的总结："AI要不要发生？要。数据要不要存？要。存储在什么情况下会供过于求？我找不到答案。"

_以下为潘健成近日接受媒体访谈实录，部分内容有删减：_

__

> **主持人：**
> 
> 大家好，欢迎回到编辑室。今天的大来宾邀请到了群联CEO潘健成。潘董，请您跟镜头打声招呼。
> 
> **潘健成：**
> 
> 各位观众大家好，两位主持人好。
> 
> **主持人：**
> 
> 我们先问一下，AI引爆了这一次的存储缺货潮，您看下来今年的状况会不会跟去年类似？
> 
> **潘健成：**
> 
> 从具体需求面来看，云端无论是美国还是中国大陆的需求都很强，基本上看不到放缓的脚步。
> 
> **主持人：**
> 
> 连韩国SK集团的崔泰源董事长都说，这波热潮会一路持续到2030年。这么夸张，您觉得呢？
> 
> **潘健成：**
> 
> 毫不夸张。过去45年以来，全世界半导体产业链的灯塔就是Intel。他们每一年都会披露未来五年内要做什么，把路线图（Roadmap）画出来。各个生态圈的厂商，比如三星，就会根据他们产出的新CPU去储备DRAM（内存）；主板厂就会去储备PCB等各种供应链资源。中国台湾的代工厂（OEM）也会根据蓝图做准备，这是一个有次序的准备过程。可是当年PC市场也花了大概十几年，才从无到普及并将其产能消化掉。
> 
> 认真讲，AI是2022年ChatGPT加英伟达带动起来的。在这之前没有人相信，有了ChatGPT之后大家相信了，一窝蜂就跳进来了。在短短的时间内，一窝蜂涌入的产能是消化不了的。
> 
> 我这样比喻，H100产出的时候，市场其实没有看到这种需求。但在当时，因为后疫情时代DRAM产能供过于求，闪存供过于求，各种产品都供过于求。所以H100出来的时候，刚好赶得上这个需求。
> 
> 到B200的时候——因为它是每一年出一个新机种——开始有一点点紧张了。到B300、再到Rubin架构，就来不及了。为什么？因为存储行业从2022年后疫情时代开始，闪存公司累计5个季度赔掉了快400亿美金，他们根本不想投资了。
> 
> 当看到这种需求的时候，说真的，2024、2025年大家也在问：这是真的吗？闪存需求是真的吗？结果走到推理阶段发生的时候，发现是真的，但此时再投资也来不及了。一项新的投资到产出需要两年多。媒体界一堆名嘴说，两年多有产出之后，市场就不会缺货了。
> 
> 那我就反问一个问题。手机刚出来的时候，我们拿手机传信息，传文字是KB级别；3G的时候是MB级别；4G的时候是几十MB；5G则是实时直播。我反问一下，人类还会再退回去传KB级别的数据吗？不可能。手机走过了这种数据量突飞猛进的进步历程。
> 
> 你看AI今天的应用还停留在文字（如ChatGPT）阶段，现在重点不是有文生视频模型了吗？几分钟内产生一部视频，就是几百个GB。以前用人工去做，需要100号人花6个月去画、去渲染、去调配，现在AI产出的数量是你没法想象的。意思是说，如果现在投资，新的产出是在两年后，那两年后人类的需求有多大？这是我们看不到的，也没法去想象的。
> 
> **主持人：**
> 
> 可是这一波从供过于求到现在，已经有点影响到民生了。大家会觉得，我现在就要买内存，我要组装电脑，却根本买不到。
> 
> **潘健成：**
> 
> 在未来的两年多内，最大的受害者是消费类电子产品，这已经是避免不了的。打个比方，下半年的笔记本电脑（Notebook）主力机型，你可能无法相信存储容量会退回到256GB。老实说256GB够用吗？够用。
> 
> 我在美国GTC大会的时候，很多朋友说没问题，我用云服务。但云服务不是免费的，它是会涨价的。他说固态硬盘（SSD）这么贵，去买一个SSD划不来，我去用云服务。我说那你算过吗？两年的云服务费用，刚好等于买一次SSD的钱。现在的最大问题是什么？消费者看到SSD涨价了3倍，他不买了；但云服务涨了5倍，大家还在抢。所以总需求其实没有减少，反而增加了。只是有能力赚钱的企业会去买，没能力赚钱的消费者就先等一等。
> 
> 但是人类有个通病。打个比方，现在一张存储卡是10块钱，预测下礼拜是12块钱，你会说太贵不买。结果等到你真正需要的那一天，你被迫跑去花18块钱买。
> 
> 我们看过太多这种案例了。所以到下半年，如果256GB的笔记本电脑开始大量上市，100个买电脑的人里，大概会有20到30个被迫去售后市场升级成512GB的，那售后市场就回来了。贵吗？贵。就像买汽油，一公升30块，如果因为打仗变成60块，你要出门加不加油？肯定要加，这是刚需。所以消费类电子会很辛苦。这是没办法的事。什么时候供需会平衡？老实说，目前还看不到。
> 
> **主持人：**
> 
> 你们群联自己也在做NANDFlash，也受到这一波的影响吗？但你们开发了一个叫做aiDAPTIV+的技术。在这种状况下，您觉得有机会缓解缺货吗？
> 
> **潘健成：**
> 
> 没有办法缓解。关于我们的做法，我来讲一下原理。AI计算最大的瓶颈其实不是算力，大家被误导了。GPU都能算，只是快跟慢的区别而已。真正的问题是内存不足，内存不够它就算不动，就罢工了。所以为了让一个模型可以持续计算，你需要的不是算力，而是内存的容量。
> 
> 为了补足内存容量，目前只有一招，就是一直买GPU卡，这需要花很多很多钱。这是根本原因。为什么说搞AI很贵？就是因为你要买很多GPU卡，把内存容量凑起来，这是最大的问题。
> 
> **潘健成：**
> 
> 群联电子看到这个痛点之后就在想：DRAM的容量小又贵，而闪存容量大又便宜，可不可以用闪存去弥补DRAM的不足？我们花了一些时间，发现这条路似乎走得通。于是我们花了三年半的时间，把这个技术从概念、应用到商业化真正做出来了。
> 
> 做出来之后能解决存储荒吗？不可能，反而会让存储缺得更严重。我这样比喻：如果全世界做汽车的只有法拉利，能买得起、开得上车的人不多，所以汽油消耗量也不大；但是当很多丰田造出来普及之后，汽油就缺货了。我们做的这个应用，是让AI生成的数据能够更低成本地存储。如果运行AI、产生数据的机器变得更便宜，数据产生得就会越快，所以后续存储缺货搞不好会更严重。
> 
> **主持人：**
> 
> 但有没有可能会出现另一种情况，就是存储界的“特斯拉”会出来打破局面？
> 
> **潘健成：**
> 
> 特斯拉就算出来，它也要消耗能源。它的能源来自于电，发电就需要很多。你可以用可再生能源，但是总消耗量是增加的。
> 
> 我们就讲上礼拜才发生的Tableconc技术（注：指代某种降低缓存需求的AI技术），Google的一篇论文——其实去年就有了——造成了整个存储行业的恐慌。其实这有两种解读。因为这项技术可以把KVCache（键值缓存）压缩到1/8，所以单台主机对于内存和闪存的需求减少了，这个观点是对的；但如果认为这会造成总需求减少，那就是错的。
> 
> 什么意思呢？以前一台AI主机要用到很多的RAM和Flash，成本太贵了，所以没法卖得多。一方面RAM和Flash本来就缺货，单机用量太大，导致能制造出来的机器台数很有限，使用者能用到的机会就变少。
> 
> 但是如果把内存占用压缩成1/8，本来供一台主机使用的内存，现在可以供给8台主机使用。机器价格变得更便宜，消费者可以更广泛地去使用。那么这8台机器推理产生的数据要不要存？肯定要存。存在哪里？还是需要存储器，这就又会导致缺货。
> 
> 所以，单机成本下降后，反而会造成整体设备使用量的大幅增加。针对这个论点，新技术出来之后，单台主机的存储用量减少是对的；可是因为主机便宜了，设备产出更多了，反而会造成外部存储市场的大缺货。
> 
> **主持人：**
> 
> 所以是用AI的人更多了，反而不管是存储，还是这些新技术的应用规模都会变得更大。
> 
> **潘健成：**
> 
> 我们先问，2000年的网络泡沫后，网络有泡沫吗？
> 
> **主持人：**
> 
> 没有。
> 
> **潘健成：**
> 
> 那是网络初创公司泡沫，网络没有泡沫，因为人类需要网络。你再回想2000年后，你一天传输的数据量只有千字节（KB），现在呢？源源不断，你已经没法想象了。今天人类大量使用人工智能了吗？还没有。会不会大量使用AI？一定会。什么时候大量使用？便宜的时候，也就是普及的时候。
> 
> 所以这还需要一段过程。那这段过程当中会不会大量铺设基础建设？2000年泡沫后，2004年谷歌证明它是有用的，全世界是不是在铺设光纤、建立无线电传输？那个就叫基础建设，就是黄仁勋讲的基础建设。AI要不要发生？要。什么时候完成？不知道。
> 
> 但是基本上AI的基础建设真的太贵了。它贵不是说成本贵，我们打个比方，我们看看存储公司，前阵子不是有财报吗？毛利率80%是什么概念？毛利80%，意味着我产出成本一块钱，售价是9块钱。做图形处理器的公司，买下这个存储产品之后再看，毛利率也是80%。
> 
> 什么意思？等于说一块变9块，9块变90块。一个产出只要一块钱的东西，到用户手上变成了90块，这个成本是很吓人的。你有没有觉得便宜？这个很难说，因为市场紧缺。但是因为比特币挖矿的技术需求，把它压缩成了1/8，省下了很多钱。一块变90块，省下1/8有没有帮助？有，这就变便宜了。便宜了就有机会普及。普及之后，每个人使用的数据要存在哪里？这才是最头痛的地方。
> 
> **主持人：**
> 
> 可是像Turbofan这样，理论值上真的有办法运作到只用这样的压缩比例，就能实现原本这么好的性能吗？
> 
> **潘健成：**
> 
> 其实在压缩方面，研究团队给我的报告显示，这没有什么了不起的。因为键值缓存（KVcache）在运算过程当中就是文字，文字的压缩比可以很高，照片就不好压缩了。这种压缩技术并不离谱，那种实时的压缩是很简单的。所以这其实是协助解决内存不足的最好方法。
> 
> **主持人：**
> 
> 所以你觉得Turbofan出来对你们也是利好，不算是太大的影响。
> 
> **潘健成：**
> 
> 对我来说是利好吗？这会让我买不到更充足的闪存。但是从另外一端来看是利好，因为客户需求变得更强了。所以你要看从哪个角度定义利好。我希望能买到更多，其实我常讲，我们不是种大米的，种稻米的要花钱买土地；我是买米的，买米做加工品，米最好不要钱，因为做加工品还是能赚钱。米越贵，我东西卖出去就越辛苦。所以从我们的角度，我们并不希望米一直涨价，这对我不利。
> 
> **主持人：**
> 
> 因为刚才潘董也有聊到，上周你们去GTC大会，看了现在整个业界的状况。你觉得现在像是开放调用（Opencall）或是AI智能体（AIAgent）算不算是已经开始提前爆发了？
> 
> **潘健成：**
> 
> 到今天为止，我们认真地问，真正会去操作使用AI的人多吗？不多。基本上大家都是在用ChatGPT，你只是提问而已，你很简单地问，它给出答案。你有没有办法具体把一个AI系统安装到自己家里来？没有安装。AI要普及必须要这样做，所以目前你只是一个简单的用户，不能叫做你会用AI。
> 
> 我们往后看市场，因为有很多落地AI的需求。一月份参加国际消费类电子产品展览会（CES）的时候，我们跟英特尔、AMD合作，使用他们中央处理器（CPU）的笔记本电脑。在不做任何硬件改变的情况下，换上了特殊的自适应固态硬盘（AdaptiveSSD），加上我们的中间件（middleware），那一台电脑就可以跑AI推理。
> 
> 每一个品牌我们都去展览了，来看的人都说很好，但是具体的应用场景，老实说我也讲不出来。我说，你看这个可以做AI，可以怎么样？可以做推理。你做给我看，可以，怎么运行？消费者才不管你的速度多快、产出多少Token。你得教我怎么用。在CES说了半天，结束会议后，我跟团队干部说，不要再去找硬件公司谈了，我们开始找软件公司、独立软件供应商（ISV），看能不能创造一些应用。不然你做了半天卖不掉，因为没有应用场景。
> 
> 刚好是在龙年前后，怎么突然抛出一个Opencall（开放调用）？其实我不知道是什么东西，团队告诉我它就是一个简单的应用程序（App），可以执行指令。你叫它去买机票，它上网帮你找完之后直接帮你执行。那我觉得这东西好用。年后，我看到中国大陆疯狂地在“养大模型”。养了两个礼拜之后把大模型撤掉。为什么？因为费用爆仓了。
> 
> 这样子我看到了一个机会：如果小模型可以养在本地端（端侧），需要高算力时再上云端；不需要高算力时，就用我们自适应的这种个人电脑来算，算得动的话是可以省费用的。
> 
> 我的团队就认真用了一个星期的时间去做了各种各样的实验。当然也花了钱，最终发现我们走混合的方式，就是需要高算力时上ChatGPT，不需要高算力时跑在本地，这种混合云的概念可以省下超过70%的费用。既可以达到我要求的速度，又可以节省费用，那我说这个需求量就会上来。
> 
> 所以GTC大会后，我们积极地在研究怎么把小模型商业化。上周在深圳有一个中国闪存峰会，全场所有人都在讲AI。虽然有的公司跟AI什么关系都没有，也在蹭AI，也在蹭大模型。我说真的，最有资格讲小模型的是我们，因为我们有便宜的平台，有具体的方案。
> 
> **主持人：**
> 
> 因为之前听到一套逻辑，就是说现在本地端的成本费用，第一个是不好用，第二个是它的部署建设成本也相当高。那这样本地端和云端，你觉得谁优谁劣？
> 
> **潘健成：**
> 
> 我们先讲个实际的案例，先不看以后，先讲以前。2025年美国科技公司大部分在进行大裁员，同意吗？为什么这些公司都很赚钱却要裁员？原因是公司开始要花钱部署AI，产生了当期的费用。这个费用短期内赚不回来，公司为了平衡增加的AI部署费用，就把人工砍掉，节省薪水开支。
> 
> 部署AI本来就要花钱，我们来打个比方。有个老前辈跟我讲，什么叫云端AI？什么叫边缘AI？云端AI就像人住酒店，每天付一笔房费。你起床后不用洗被单，不用洗厕所，出了门就结束了，晚上回来干干净净就能睡觉。缺点是每天要付一笔费用；第二个缺点是，你在里面没办法自己装修，没办法挪床位，做自己喜欢的东西。
> 
> 那本地端是什么意思？就是买房子。先付一笔首付，很贵，坏处是还要自己洗厕所、洗被单，但是不用每天付房费。
> 
> 这两个选择，人会一辈子住酒店吗？不会。有些人会，他觉得比较便宜。但大部分人都住家里。你会一辈子住家里吗？也不会，你出去玩的时候会住酒店。所以就有了混合的概念，一年365天，可能10天、20天住酒店，大部分时间住家里。买房子贵，那为什么要买房子？因为你有需要。所以本地端的投资是必然要发生的，只是早晚的问题。
> 
> 其次，如果随便买个房子都要几亿新台币，那就算了吧。但房子有首付100万的、200万的、1000万的，你可以根据情况选择。如果买房子真的全都是1亿，能买得起的人就不多了。去年的方案就是给你选择，有50万的首付，也有100万、200万的，你要3000万的我也有，就是给你提供定制化。
> 
> **主持人：**
> 
> 那看起来，刚才潘董您提到终端设备在COMPUTEX展上就能看到。您觉得它会为消费者以及制造商带来怎样的商机和机会？
> 
> **潘健成：**
> 
> 回答这个问题，我还是回到以前苹果推出第一代iPhone的时候。根据我了解到的情况，他们当时是要解决视频销售的问题。因为当时不是有一款播放视频的iPod吗？但那只能用Wi-Fi。如果加上SIM卡，可以直接通过3G/4G网络购买，是不是更方便？既然都已经做了iPhone，那就顺便做几个应用程序（App）吧。今天人类的任何需求，App都可以解决，同意吗？20年前，你问他们有想到这一天吗？他们一开始可能会说有这种可能，但是绝对没想到今天会有这么多App，现在你出门只要带一部手机就全解决了。
> 
> 第一个，它得有一个平台。以前这个平台的算力不怎么样，从一代到十七代，英伟达也在跟进，每一年新的平台都越来越便宜。做软件的人看到有需求可以做，这就是商机，所以产生了无数个App在市场上买卖。
> 
> 同样道理，如果我们生产的笔记本电脑都能运行AI推理，今天的算力是这样，两年后，CPU公司看到有利可图，会不会增加算力？一定会。算力达到一定阶段之后，做软件的人就会发现可以开发相关应用。这种应用不仅会发生在手机的App上，也一定会发生在个人电脑的AIApp上。这只是时间问题，前提是成本要降下来，成本降不下来就不可能发生。
> 
> **主持人：**
> 
> 那从这样的趋势来看，是不是跟当年我们从个人电脑过渡到手机一样，先从笔记本电脑开始普及，之后这个技术在手机上也会实现？
> 
> **潘健成：**
> 
> 凭良心说，在手机上放本地端AI，我直接说这是多此一举。第一，手机本来就时刻连着网络，本来就有云端后台；第二，手机电池容量有限。手机电池是为了维持续航力的，而不是搞个AI，五分钟就把电耗光了。
> 
> 但是手机上面会不会有一些本地的App？一定会有。它可能一部分运算在本地做，另一部分回到云端后台去做，必定会有一些应用能让AI落地。但是，我不认为使用手机的人会觉得数据上云端是机密泄露，因为你手机本来就是时刻连着云端的。但是PC不一样，我工作的数据都在PC里，我不想上云端就可以不上。这是两种完全不同的思维。
> 
> **主持人：**
> 
> 您刚才提到电池电量有限这件事，我想提到另外一点，就是黄仁勋在GDIC上讲的“五层蛋糕理论”。这个理论的最底层是能源（Energy），然后是芯片（Chips），到最后是模型（Model）。您怎么看待他这个理论？
> 
> **潘健成：**
> 
> 他的理论一定是正确的。如果不正确，就不会有今天，这个逻辑并不难。今天人类面临的是AI，面临的挑战就是电力不够，所以电力问题需要解决。
> 
> 面临的另一个问题是算力不够。算力如果不够，让台积电多生产一些GPU就可以了。存储不够怎么办？GPU买来组装好之后就可以一直算，大概率也不会坏。存储就是存储空间（Storage），数据放进去，除非你删掉不要了，但你的数据大概率是不会删掉的。就像你用Facebook，肯定没有为存储数据付过钱。
> 
> 20年前的数据还在吗？在。因为数据就是一座矿，所以数据不会消失。你放了100太字节（Terabyte）进去，它就在那里。你要再扩充容量，才会放进第二个100太字节。
> 
> 所以数据的最大问题是，你需要源源不断地为它提供容量。我这样比喻，很多人说存储是周期性产业，这是对的，但在今天就不对了。什么叫周期性产业？我不讲理论，就拿闪存（Flash）来说。闪存什么情况下使用量会减少？不是经济不好，而是需求太强之后，需求就变差了。
> 
> 假设一个8G容量的闪存成本是100美元，因为需求太好，价格涨到了200美元。手机公司为了控制成本，就把容量砍到64G（减半），让成本回到100美元。结果需求少了一半，市场马上崩盘。那闪存什么时候需求会变好？在需求极度糟糕的时候，马上就会变好。当成本从50美元掉到剩10美元时，我的容量就能增加5倍。
> 
> 这是闪存过去的规律。可是今天的AI情况是，云服务公司花了万亿美元建立的AI应用所产生的模型，其收入来自于消费者付费产生的推理。推理输入的是电力，输出的是数据。
> 
> 数据需要存储，如果没有空间存储，就没有收入。所以它的收入与存储空间成正比，有多少收入就需要多少存储。因此，这是无限的，是永无止境的。那还会呈现周期性循环吗？循环不了了，因为需求是永无止境的。
> 
> **主持人：**
> 
> 所以未来等于是“得Token者得天下”，可以这样讲吗？
> 
> **潘健成：**
> 
> 我必须要说，未来只要你有充足的存储空间，就能获得无止境的营收。不然您说营收怎么来？而且还有一个很现实的问题，今天的存储不足，是美国的云服务公司追逐AI造成的。
> 
> 全世界能够建立云端AI、开发AI技术的地方只有两个：美国和中国。其他企业开始积极追赶了吗？我看到的只有一家或一家半，其他的都还在观望。为什么？因为去年AI公司根本没赚钱，云服务公司都在大打Token的价格战，因为没有实际应用。现在美国证明了应用的可行性，中国一定会跟进。之后美国一家公司就能让你分一杯羹，中国大陆的市场也会再释放出来。
> 
> 会不会缺第三朵云？AI应用落地了没有？还没有。会不会落地？一旦落地，全球这么多人口，每个人都需要一点存储空间，你说缺不缺存储？我再打个比方，很多年以前的VR（虚拟现实）大家还记得吗？当时说得非常棒。我就不相信，现在VR还在吗？
> 
> **主持人：**
> 
> 还在啊。
> 
> **潘健成**
> 
> 还在，但是很少。对产业造成影响了吗？没有。当初我就认为我不会用它，因为它不是刚需。但AI是不是刚需？是。如果是的话，你告诉我存储在什么情况下会供过于求？我找不到供过于求的理由了。
> 
> **主持人：**
> 
> 在这个环境下，普通民众应该如何去拥抱AI？在未来的应用上，我们还可以怎样去精进自己扮演的角色？
> 
> **潘健成：**
> 
> 首先要定义什么叫拥抱AI。使用AI的话，你每个月付给ChatGPT几百块钱就可以用，但这真的对你有帮助吗？可能只有一点点帮助。对于企业来说，如果你为了用AI增加效率却不想投资，那就别想了。这就好比你说：“我不买房子，我住酒店。”那只能祝福你，你的商业机密就会外泄，费用也会随之增加。所以，这需要魄力。
> 
> 要不要自己建立AI？有人说要，有人说不要。选择“要”的人，两年后会证明是对的；选择“不要”的人，到时候只能被迫跟进。我没有看到谁建立了AI之后不用的，这是不可能的。
> 
> 我们现在这样讲，几十年前到处都是杂货店。今天只有乡下还有杂货店。老板如果有商业嗅觉的话，就会想办法先进行数字化，这样才有办法做集中管理。所以有人数字化之后，引进了7-Eleven等便利店模式，传统的杂货店就被淘汰了。
> 
> 作为企业主，时代要发生的事情你是挡不住的。你可以选择不让它发生，可以在有生之年把自己的生意顾好，但到了你下一代，这个产业就做不下去了。所以拥抱AI你必须要投资，而且不仅是投资金钱。
> 
> 还要投资人力资源。现在全世界最欠缺的就是AI的“蓝领”。你可以上GitHub下载各种各样免费的模型，但是怎么用？怎么建？数据你怎么处理？
> 
> 到目前为止，学校没法培养出大量可以操作AI的人才，是因为GPU太贵了。学校有一些H100、H200，都被少数教授和实验室拿去做开发研究了，普通学生根本用不了。学生毕业来到工作岗位之后，老板也没有多余的GPU，所以学生依然不会用。
> 
> 因此，学校必须要快速引进低价的GPU来训练学生，让学生可以开始实际操作。学生在学校掌握了一定技能，进入企业后，只要企业有设备，马上就能上手工作。这就叫拥抱AI。但是我发现，全世界的政治领袖、商业领袖、名嘴都在讲AI，讲得头头是道，讲得都对。但具体怎么做？三个字：“不知道”。这才是根本的问题。

### 相關股票

- [SSNGY.US](https://longbridge.com/zh-HK/quote/SSNGY.US.md)
- [WDC.US](https://longbridge.com/zh-HK/quote/WDC.US.md)
- [FTXL.US](https://longbridge.com/zh-HK/quote/FTXL.US.md)
- [SOXX.US](https://longbridge.com/zh-HK/quote/SOXX.US.md)
- [XSD.US](https://longbridge.com/zh-HK/quote/XSD.US.md)
- [DRAM.US](https://longbridge.com/zh-HK/quote/DRAM.US.md)
- [07709.HK](https://longbridge.com/zh-HK/quote/07709.HK.md)
- [NVDA.US](https://longbridge.com/zh-HK/quote/NVDA.US.md)
- [AAPL.US](https://longbridge.com/zh-HK/quote/AAPL.US.md)
- [MS.US](https://longbridge.com/zh-HK/quote/MS.US.md)
- [GS.US](https://longbridge.com/zh-HK/quote/GS.US.md)
- [GOOGL.US](https://longbridge.com/zh-HK/quote/GOOGL.US.md)
- [GOOG.US](https://longbridge.com/zh-HK/quote/GOOG.US.md)
- [INTC.US](https://longbridge.com/zh-HK/quote/INTC.US.md)
- [NVD.DE](https://longbridge.com/zh-HK/quote/NVD.DE.md)
- [MS-O.US](https://longbridge.com/zh-HK/quote/MS-O.US.md)
- [MS-Q.US](https://longbridge.com/zh-HK/quote/MS-Q.US.md)
- [MS-E.US](https://longbridge.com/zh-HK/quote/MS-E.US.md)
- [MS-I.US](https://longbridge.com/zh-HK/quote/MS-I.US.md)
- [MS-L.US](https://longbridge.com/zh-HK/quote/MS-L.US.md)
- [MS-P.US](https://longbridge.com/zh-HK/quote/MS-P.US.md)
- [MS-A.US](https://longbridge.com/zh-HK/quote/MS-A.US.md)
- [MS-F.US](https://longbridge.com/zh-HK/quote/MS-F.US.md)
- [MS-K.US](https://longbridge.com/zh-HK/quote/MS-K.US.md)
- [W4VR.SG](https://longbridge.com/zh-HK/quote/W4VR.SG.md)
- [SMSN.UK](https://longbridge.com/zh-HK/quote/SMSN.UK.md)

## 相關資訊與研究

- [長江存儲擴產引發恐慌，分析師指四大因素強調短期難影響市場](https://longbridge.com/zh-HK/news/282801032.md)
- [長江存儲規劃 NAND 產能翻倍 業界：供給仍趕不上需求](https://longbridge.com/zh-HK/news/282783719.md)
- [護國神山法説行情助攻台股創高 這檔科技市值型 ETF 盤中漲 3.5% 同創高](https://longbridge.com/zh-HK/news/282625605.md)
- [羣聯備逾 400 億元銀彈大買 NAND Flash 潘健成：缺貨問題十年內難解](https://longbridge.com/zh-HK/news/282403924.md)
- [羣聯 CEO 潘建成：閃存缺貨將持續 10 年](https://longbridge.com/zh-HK/news/282510186.md)