
为什么人们在担忧美股科技巨头们的庞大资本开支?

因为这些开支会产生折旧,现在巨头们普遍把这些硬件设备折旧调到 5-5.5 年,这也就意味着这些投入如果不能带来可观的利润增长,钱就都白花了。
那么问题来了,比特币矿工用 RX580(2017 年的卡)现在还能挖矿,为什么巨头们的 H100 就不能用 5.5 年?
不太行。答案在于:“物理寿命” 不等于 “经济寿命”。
对于巨头们这种超大规模数据中心来说,硬件在物理损坏之前,早就已经 “在经济上变成了负资产”。
主要原因如下:
一,成本倒挂 “电费比金子贵”
比特币矿工之所以用老显卡,是因为他们往往用的是廉价电力(废弃水电、盗电等),且不考虑机架空间。
但巨头们的数据中心受限于两个物理极值:电力容量和机架空间。
假设 5 年前的旗舰卡(如 V100)消耗 300W 电,算力为 X。
现在的旗舰卡(如 H100)消耗 700W 电,算力为 30X。
残酷的现实: 如果巨头们要在 5 年后继续运行那张旧卡,它占用了宝贵的机位和电力插口,却只能提供 1/30 的产出。
机会成本: 在电力供应紧缺的背景下(美国数据中心正在抢核电),每一瓦特电都是稀缺资源。把电浪费在效率低下的旧设备上,等于主动放弃了部署更高效新设备的机会。
结论: 没等到第 5 年,运行旧设备的电费 + 维护费 + 占地租金,分摊到每个算力单位上,可能比直接扔掉它买新卡还要贵。这是一种 “经济性报废”。
二,AI 有 “木桶效应”
比特币挖矿,是并行且独立的计算。一台矿机慢,不影响另一台,它只要贡献它算出来的那一份微薄的哈希值即可。
但 AI 训练和推理是集群作业。
训练大模型需要几万张卡通过高速互联协同工作,是一个整体。
同步阻滞(Straggler Problem): 在一个集群里,如果有一批旧卡处理速度慢,整个集群几万张新卡都要停下来等它。你不可能在同一个训练集群里混用 H100(2023 年)和 V100(2017 年)。
结论: 一旦新一代架构成为主流,旧架构就无法并入新集群。它只能被降级去跑边缘任务(如冷数据处理),价值断崖式下跌,支撑不了原本的高账面价值。
三,内存墙的物理隔离
这是最硬的物理限制。AI 大模型的发展速度,超过了摩尔定律。
显存容量与带宽:
2017 年的 V100 显存:16GB/32GB HBM2。
2024 年的 H100 显存:80GB HBM3。
2026 年的 Rubin 显存:可能达到 192GB+ HBM4。
跑不起来就是跑不起来: Llama 3 405B 这种模型,根本无法塞进旧卡的显存里。这就好比你试图在 10 年前的 iPhone 6 上运行「黑神话悟空」。
结论:
前段时间的美股大跌,正是人们在财务上对巨头们产生了担忧。
巨头们正在将现在的成本压力,通过会计手段甩锅给未来。当那一天到来(比如 2030 年),如果这些 5.5 年前的设备真的变成了一堆废铁,巨头们就必须进行巨额的资产减值,到时候财报上会突然出现一个百亿美元的大窟窿。
$亚马逊(AMZN.US) $微软(MSFT.US) $特斯拉(TSLA.US) $英伟达(NVDA.US) $谷歌-C(GOOG.US) $Meta(META.US)
本文版权归属原作者/机构所有。
当前内容仅代表作者观点,与本平台立场无关。内容仅供投资者参考,亦不构成任何投资建议。如对本平台提供的内容服务有任何疑问或建议,请联系我们。


