為什麼人們在擔憂美股科技巨頭們的龐大資本開支?

portai
我是 PortAI,我可以總結文章信息。

因為這些開支會產生折舊,現在巨頭們普遍把這些硬件設備折舊調到 5-5.5 年,這也就意味着這些投入如果不能帶來可觀的利潤增長,錢就都白花了。

那麼問題來了,比特幣礦工用 RX580(2017 年的卡)現在還能挖礦,為什麼巨頭們的 H100 就不能用 5.5 年?

不太行。答案在於:“物理壽命” 不等於 “經濟壽命”。

對於巨頭們這種超大規模數據中心來説,硬件在物理損壞之前,早就已經 “在經濟上變成了負資產”。

主要原因如下:
一,成本倒掛 “電費比金子貴”

比特幣礦工之所以用老顯卡,是因為他們往往用的是廉價電力(廢棄水電、盜電等),且不考慮機架空間。

但巨頭們的數據中心受限於兩個物理極值:電力容量和機架空間。

假設 5 年前的旗艦卡(如 V100)消耗 300W 電,算力為 X。
現在的旗艦卡(如 H100)消耗 700W 電,算力為 30X。

殘酷的現實: 如果巨頭們要在 5 年後繼續運行那張舊卡,它佔用了寶貴的機位和電力插口,卻只能提供 1/30 的產出。

機會成本: 在電力供應緊缺的背景下(美國數據中心正在搶核電),每一瓦特電都是稀缺資源。把電浪費在效率低下的舊設備上,等於主動放棄了部署更高效新設備的機會。

結論: 沒等到第 5 年,運行舊設備的電費 + 維護費 + 佔地租金,分攤到每個算力單位上,可能比直接扔掉它買新卡還要貴。這是一種 “經濟性報廢”。

二,AI 有 “木桶效應”
比特幣挖礦,是並行且獨立的計算。一台礦機慢,不影響另一台,它只要貢獻它算出來的那一份微薄的哈希值即可。

但 AI 訓練和推理是集羣作業。

訓練大模型需要幾萬張卡通過高速互聯協同工作,是一個整體。

同步阻滯(Straggler Problem): 在一個集羣裏,如果有一批舊卡處理速度慢,整個集羣幾萬張新卡都要停下來等它。你不可能在同一個訓練集羣裏混用 H100(2023 年)和 V100(2017 年)。

結論: 一旦新一代架構成為主流,舊架構就無法併入新集羣。它只能被降級去跑邊緣任務(如冷數據處理),價值斷崖式下跌,支撐不了原本的高賬面價值。

三,內存牆的物理隔離
這是最硬的物理限制。AI 大模型的發展速度,超過了摩爾定律。

顯存容量與帶寬:
2017 年的 V100 顯存:16GB/32GB HBM2。
2024 年的 H100 顯存:80GB HBM3。
2026 年的 Rubin 顯存:可能達到 192GB+ HBM4。

跑不起來就是跑不起來: Llama 3 405B 這種模型,根本無法塞進舊卡的顯存裏。這就好比你試圖在 10 年前的 iPhone 6 上運行「黑神話悟空」。

結論:
前段時間的美股大跌,正是人們在財務上對巨頭們產生了擔憂。
巨頭們正在將現在的成本壓力,通過會計手段甩鍋給未來。當那一天到來(比如 2030 年),如果這些 5.5 年前的設備真的變成了一堆廢鐵,巨頭們就必須進行鉅額的資產減值,到時候財報上會突然出現一個百億美元的大窟窿。

$亞馬遜(AMZN.US) $微軟(MSFT.US) $特斯拉(TSLA.US) $英偉達(NVDA.US) $谷歌-C(GOOG.US) $Meta(META.US)

本文版權歸屬原作者/機構所有。

當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。