Dolphin Research
2025.12.02 12:19

AI 泡沫 “原罪”:英偉達是 AI 戒不掉的 “金毒丸”?

portai
我是 PortAI,我可以總結文章信息。

以 2022 年年末 ChatGPT 發佈為標誌,三年間 AI 狂熱從算力、存儲、網絡、製造、電力基建、軟件應用,甚至到邊緣設備,每個方向的細分賽道都被輪番反覆炒作了一遍。

但到三週年末,當 AI 基建的頂樑柱們,在三季報前後一個個宣佈前所未有的 AI 大基建時,市場反而跟突然喪魂了一樣,開始擔心 AI 投資要泡沫了。

產業有人賺得盆滿缽滿,有人虧到瘋狂融資,問題到底出在哪裏?融資眼花繚亂,千奇百怪,為什麼?

本篇,海豚君通過產業鏈核心公司的報表來仔細研究一下這些問題,並嘗試理解,到底 AI 投資是否已經真走到泡沫階段了?如果真有泡沫,那麼泡沫的原罪在哪裏?

一、融資眼花繚亂?產業鏈利潤分配重度扭曲

下面這張圖,對很多人來説恐怕已經很熟悉了。這張圖最大的問題,整個產業鏈的最終用户,也就是 OpenAI 的用户在整個資金循環鏈條裏創收規模相比投入太小,沒有被畫到圖中。

但張圖的核心信息,其實也就是下游客户用上游供應鏈的錢來為自己的業務融資,這麼一個簡單而又古老的供應鏈融資方法。

同時,一級市場模型巨頭們供應鏈融資同步發生的,還是二級市場應用巨頭們已逐步普遍表內、表外債券融資(詳細分析見此處

但這裏的問題是,為何在芯片商如英偉達賺到盆滿缽滿、全市場都在説 AI 是新一場技術革命的時候,AI 拓荒人 OpenAI 要用下一盤這麼大的融資棋局?為什麼本來富到流油的美股巨頭如$谷歌-A(GOOGL.US) 、Meta 等等,現在要用債務才能支撐未來的發展?

其實答案很簡單,AI 產業初期,產業鏈利潤分配重度不均,上游把好處基本“吃幹抹淨”了。

AI 的主產業鏈主要是這麼五類玩家:晶圓代工($台積電(TSM.US) )——算力商($英偉達(NVDA.US) )——雲服務商($微軟(MSFT.US) ——模型商(OpenAI)——終端場景五層來分。

1.1)從雲服務商的經濟賬説起:到底誰賺了紅利、誰賺了吆喝、誰擔了風險?

A. 雲服務商們的經濟賬:100 元收入分佈——55 元成本、10 元運營開支,35 元利潤;

以下,海豚君用一本產業鏈一本簡單的經濟賬來給大家仔細算下數,來直觀了感受一下這場三年的 AI 繁榮當中。我們知道,雲服務是一個既重資金壁壘,又重基本壁壘的行業。它的前半部分跟蓋房子一樣,需要把廠房蓋起來、機櫃、佈線、冷卻等等都要做好,這部分算是機房的硬裝。

軟裝部分就是放入 GPU、CPU,這中間 GPU 內部的連接、GPU 與 GPU,以及與其他設備的連接要做好,再加上網絡、寬帶,通上電,軟裝基本完成。這些要素放在一起,再通過技術人員完成 “靈魂點睛”,就是一個比肩基礎的 IaaS 服務了。

從上面的要素其實可以看出,雖然它聽起來高大上,本質上沒有擺脱運營商生意的範疇——把各種重資產 + 技術組合在一起,形成雲服務,通過租賃雲服務賺錢。

這個生意的核心就是,成本要足夠低,比如説成本最高的 GPU 裝上去了之後可以用個十年八載的,不能像光伏電場那樣,隔三差五光伏板就要換掉。

來源:英偉達 NDR 材料

按海豚君的估算,雲服務商假如用全新的 AI 產能來提供 AI 雲服務,那麼每賺 100 元,大約 35 元是前期買入設備(以 GPU)的攤銷折舊,GPU 折舊年限以目前雲服務商普遍的五年期來算,資本開支投入其實是 175 元。

而如果英偉達的 GPU,那麼基本上 125 元(70% 以上)是 GPU(含網絡設備)提供生的收入,剩下是 CPU、存儲、網絡設備等

除了固定成本,還有能源電力、帶寬、運維等成本,而運營費用上,主要就是研發銷售和行政等費用了。100 元的收入最終實現的賬面經營利潤是 35 元。

備註:數據取 AWS 和 Azure 中間值利潤率估算,結合 GPU 雲租賃的 ROI 與傳統對比來做模擬

從這些數中,可以看到一個很明顯的問題是:

① AI 基建早期,雲服務商只有明面利潤,實際嚴重缺錢:在這個簡單的模型中,雲服務商明面上是賺了 35 塊錢,但由於其實在拿到收入之前,其實已經提前預支自己的全部 100 元收入都不夠,需要花 175 元來先買 GPU 設備。也就是説 CSP 其實只賺了賬面利潤,實際投入是倒貼的。

② 數據中心瘋狂融資:雲大廠由原本的現金牛業務來支撐,但現在新興的新雲如 CoreWeave、Nebius、Crusoe、Together、Lambda、Firmus 和 Nscale 等因為沒有原本的現金流業務,現在普遍需要發行資產抵押支持證券融資來提供雲服務。

B. 100 元的雲服務收入,如何流入英偉達、OpenAI 賬本?

① 算力提供商 (英偉達)——盆滿缽滿的設備股

雲服務的成本,是英偉達的收入。每 100 元的雲服務收入,因為有 35 元是設備折舊,按五年折舊期,提供這些服務需要提前採購大約 175 元的設備。

英偉達的 GPU 在採購中的價值大約佔到了 70%,相當於雲服務這 100 元的收入,單獨向英偉達就已支付了 125 元的 GPU 設備採購費。

很顯然,作為雲服務商生產資料要素採購中,單體價值最大的一環,英偉達在早期 AI 基建期賺得盆滿缽滿。

② 眼下的 Open AI——8 億 WAU,但虧光褲子的應用股

整個產業鏈條中,雲服務的需求側——OpenAI 是需求的源頭,它的償付能力決定了這個鏈條循環的健康度。但目前 OAI 的創收能力來看,砸了這麼多的算力資源,結果上只能算是“金鏟子” 挖 “土”。

首先雲服務商 100 元的 GPU 租賃收入,到 OpenAI 這裏,其實就是它為自己的用户提供服務的雲服務成本。按媒體披露的 OpenAI 25 年上半年財務狀況,100 元的雲開支,只能對應公司 96 元的收入,同時算上公司的研發人員開支、營銷和管理支出(不含期權激勵)——100 元支出,公司基本虧掉了 100 元。

C. 核心矛盾: 產業鏈利潤分配嚴重扭曲

把這三家公司簡單模擬的經濟賬放在一起,一幅對比鮮明的產業鏈利潤分配圖景就出現了:產業鏈核心鏈主的產業鏈利潤、風險收益分配極度不均衡。

上游鏟子股——以英偉達為代表的算力資產是輕資產業務,憑藉壟斷地位,不僅收入增長快,而且應收款風險較低,盈利質量高,盈利賺得盆滿缽滿;

中游資源整合方——雲服務商們承擔着大塊頭的產業鏈投入,和資源整合,前期投入巨大,明面賺錢但實際現金流吃緊,是事實上最大風險承擔方;

下游應用商——生產資料(雲服務)太貴,收入太少,只能覆蓋一定點的雲服務成本,是虧在明面上的應用股,最終應用股的健康程度,才是決定產業鏈健康度的生死劫。

這樣的產業鏈利益不斷往上游轉移,AI 主產業鏈鏈主們的矛盾日益突出,行業競爭動態天平開始明顯變化:

① 算力——英偉達

英偉達憑藉第三方 GPU 的壟斷地位,尤其是訓練階段的獨特優勢,享受了 AI 基建早期的最大紅利。但它的產品賣到客户那裏不是易耗品,而是一個能夠使用多年的資本品。

它的高成長,從行業 Beta 角度,主要集中在 AI 數據中心的產能投建期。公司的增長斜率會高度依賴雲服務商的資本開支增長斜率,當雲服務商的資本開支即使在新高的位置一旦穩定下來,不再告訴增長,那麼對應的芯片商收入零增長,萬一錯估了週期,再來點存貨減值,利潤率就會直線下滑。

最新季度,英偉達前四大客户貢獻了公司 61% 的收入,很顯然它的收入就是雲服務商們的資本開支預算。

來源:英偉達 2025 年 NDR 材料

當下在 4-5 萬億的市值壓力之下,英偉達是持續交付芯片,撐起美股半邊天的壓力,因此,它的核心訴求就是繼續賣芯片,賣出更多芯片,方法上比如説:

a.芯片銷售擴散到海外市場,比如特朗普帶着 GPU 商家們去中東等地區簽單;同時痛失中國市場,讓黃仁勳説出了美國要輸掉 AI 戰爭的喪氣話。

b. 瘋狂迭代:創造雲服務商們一直需要更新設備的需求。目前英偉達基本每 2-3 年就會有一次大的產品系列迭代,有些版本的迭代,甚至需要全新的數據中心建設標準來配置 GPU。

② 雲服務商——微軟:垂直一體化降本

雲服務商目前是供不用求,似乎享受的行業紅利,但其實長期是承擔了產能錯配的風險,因為最大的資本開支都是由它來承擔的,一旦需求判斷失誤,數據中心閒置,雲服務商就成了損失最為慘重的產業鏈環節。具體來看,

a. 短期:雲服務毛利率更低

當下的短期問題是,由於 GPU 太貴,GPU 雲服務比傳統雲服務毛利率更低。而按照微軟 CEO 納德拉的説法,目前 AI 雲業務中產生利潤的不是 GPU,而是除了 GPU 之外的其他設備部署(存儲、網絡、帶寬等)——換句話説,現在的 AI 數據中心,因為 GPU 太貴了,其實是用 GPU 引流,靠搭售附加產品來賺錢。

b: AI 算力的攤銷折舊風險

運營商生意是重資產業務,最怕生產資料投入的攤銷折舊週期太短(風能發電廠和 3G 時代的電信運營商都有過類似問題);英偉達推新太快(兩年一次),折舊年限至關重要;

c. 前置投資風險

長期承擔了資源整合和資金風險(資本開支);如果客户盈利能力不足、場景落地慢、技術迭代突然出現非線性迭代(比如模型變輕,小模型在端側能完成 AI 大任務,或者本身軟件迭代對算力需求大幅減少),可能後續產能利用不足,導致雲服務商產能與需求誤判,那麼它會成為最大下游客户失敗的風險承擔方,體現不是應用賬款收不會,而是數據中心產能浪費

很明顯,從雲服務商的角度,可以做的是,降低數據中心的最大成本項——GPU 成本,比如説繞過英偉達税,自研 1P 算力芯片;雖然需要外包一部分設計工作給到博通、Marvell 等 ASIC 設計商等等,但整體能夠大幅降本。結合資料信息,構建 1GW 算力中心,用英偉達 GPU 的成本是 500 億美金,而用 TPU 大約是 200-300 億美金。

③下游應用(含模型)主要風險——生產資料成本太高,收入不匹配,現金流斷裂風險。

這裏選 OpenAI 作用終端的場景應用股(含了模型層)。

收入高速增長:根據媒體披露,按 OpenAI 目前的月收入推進速度, 2025 年按月預計年底年化200 億美金,25 全年 130 億美金,同比增長 250%;

支出飆升更快:這裏的問題是,收入在高速增長過程中,並沒有正常商業模式下收入放大之後,虧損率逐步減少的情況,反而支出的增長斜率比收入的增長斜率更高,收入越做大,虧損反而約高。

按媒體披露信息,2025 年收入 130 億,虧損應該估計至少 150 億上下;如按微軟財報信息(按 40% 股權),OpenAI 虧損年化虧損應該已超 300 億。

OpenAI 目前的訴求也很明顯,首先雲服務成本太高了,導致收入不經濟,收入多了,反而虧得更兇猛;在與此同時;由於收入缺口太大,公司需要融資的同時,還需要進一步做大收入,而在做大收入過程中,雲服務靠外部提供,供應商容量不夠,導致產品推新延遲(比如説 Sora 因此推遲,OpenAI Pulse 高定價拖累滲透率)。

三、AI 產業鏈:巨頭博弈產業鏈定價權

AI 技術(模型)迭代足夠快,逐步成熟到可以落地的程度,但部署上成本太高——雲服務成本太高,無法支撐技術在應用場景上的快速擴展。

而以上的經濟賬模擬,可以很清晰地看到,高成本是因為產業鏈加價太嚴重——英偉達芯片毛利率 75%(加價率 4 倍)、CSP(雲服務) 毛利率 50% 上下(加價率 2 倍),到 OpenAI 使用的時候,鏟子的成本已經太高,即使是互聯網歷史上增速斜率比較高的應用,都無法覆蓋更快速度的成本上升。

於是產業鏈博弈開始了!

英偉達因在數據中心中的價值量和技術壁壘都較高,因此想掏空雲服務商的價值,讓它淪為 GPU 的包工頭。而云服務商覺得英偉達税收得離譜,想要通過自研芯片把英偉達超額利潤打掉。

而自從微軟解綁了它只能使用 Azure 作為雲服務提供商的禁制之後,OpenAI 已經明確表達的自己的意圖,要自建數據中心,OpenAI 似乎想消除上游每一段的超額溢價,最好把算力的價格打到白菜價,推動應用的繁榮。

結果就出現了 2025 年年底最受寵的商業模式,也是目前最流行的投資賽道 “全棧 AI”,其實説白了,就是產業鏈的垂直一體化。三家雖然操作不同,但本質上都是在垂直一體化的方向上努力:

① 英偉達:英偉達 + 新雲小弟們=削弱 CSP 大廠產業地位

依賴 GPU 的壟斷地位,通過優先供應最新 Rack 系統,產能回購協議等,扶持一堆 IaaS 仰仗英偉達的發貨排序的新興雲平台 Coreweave、Nebius 等,其中對 Coreweave 的回購兜底最為突出。

這些新雲前期普遍大量融資,新雲大多依賴於英偉達的供貨傾斜或者融資支持,最終新雲的產能基本都是使用英偉達的芯片。通過這個操作,英偉達實際上等於除大型 CSP 之外,鎖死了其他小云服務商的 GPU 選擇權。

但對於這個操作,微軟 CEO 納德拉層在訪談中曾間接表達過,“一些人以為提供雲服務,就是買一堆服務器,插上電就可以了”。言外之意,實際雲服務是一個非常複雜的業務,門檻並不低,不然全球的雲服務市場那麼大,但只是被三四朵雲所壟斷。

從這個角度出發,今年爆炒的新雲服務商,其實背後一定程度上就是在 GPU 供給緊缺的情況下,英偉達通過優先分配權拉起來的下游代理商(二道販子),假如長期產業供需均衡,產業競爭邏輯走向正常的技術、資金、渠道、規模導向型商業模式,這些新雲是不是還能存在,還很難説。

似乎 AI 新雲玩家,看起來更像是一個 AI 基建上半場的產業鏈博弈中的過程產物,而非供需平衡下終局格局中可以和雲服務巨頭分庭抗禮的競爭對手。

② 雲服務商:雲服務商 +ASIC 設計商 + 下游產品=削弱英偉達芯片壟斷溢價

a. 目前 GPU 用量較大的公司基本都開啓了自研芯片的努力,這裏除了雲服務商$谷歌-C(GOOG.US) 、微軟和亞馬遜$亞馬遜(AMZN.US) ,一些單體用量較大的下游客户如 Meta、字節、特斯拉等都在自研 ASIC 芯片。

在 ASIC 芯片自研子產業鏈中,ASIC 設計外包商如$博通(AVGO.US)$邁威爾科技(MRVL.US) 、、AUC、聯發科等等,都是高價值的資產。

b.討價還價的二供備胎價值

自研芯片,啓動最早,產品名聲最高的主要是谷歌聯合博通研發的 TPU,直接供應了 Gemini 3 的研發;同時,其實亞馬遜也很早啓動了自研 GPU 的研發(訓練 Trainium、推理 Inferentia)。

按此次英偉達的財報(Anthropic 首次開始使用英偉達合作),Anthropic 模型的研發其實應該主要是基於亞馬遜的雲和亞馬遜的 Trainium 芯片。

全球兩個性能靠前的模型 Gemini 和 Anthropic,一個在完全不用英偉達,一個較少用量的情況下,都把模型訓練到了領先的位置,已經明顯開始影響到英偉達的在算力行業的定價權。

這樣的案例影響下,下游客户通過威脅使用 TPU(甚至都未必是真部署),就能迫使英偉達為鎖死下游客户訂單,通過融資擔保、股權融資、剩餘產能兜底等方式來間接降價,本質上就是客户把部署 GPU 的成本給拉了下來。

這些已經是英偉達算力地位受到威脅的實際體現。

c. 下游產品滲透:產品線全系 AI 武裝,防守 Chatgpt 崛起

這些處於中間環節的雲廠商,本身核心業務大多為再往下游的模型和軟件應用的場景,除了往上通過垂直一體化防止英偉達在雲業務上偷家,往下還要讓自己的全系產品場景都武裝上 AI,與 ChatGPT 展開競爭,防止被 ChatGPT 顛覆。

③ OpenAI:產業鏈自主=Stargate

而處在模型廠和應用場景上的新公司 OpenAI,血虧之下,不想受制於巨頭,像以自己的影響力,通過融資來自建一個基本自主的產業鏈,OpenAI 的大致圖景是——上游算力自研和外採對半分(AMD 的 6GW 是備胎算力)、中游雲服務完全聽命於自己,以幫助自己全力保持技術領先,和推廣 AI 應用。

a. 自建數據中心:OpenAI+ 融資 + 芯片商 +Oracle=Stargate

從公司的股權架構設計來看,其實 Stargate 就是一個專門服務 OpenAI 算力需求的大塊頭新興雲公司(10GW 設計產能)。只是 OpenAI 通過最初的投資入股,在 Stargate 公司股權佔比 40%,強化對算力基礎設施的主導權。

b. 綁定訂單:作為一個深受高價算力和供給不足束縛的雲服務終端客户,最符合 OpenAI 利益的其實是過剩且便宜的算力,利用上游供應商 FOMO 心理,綁定一切能綁定的產能,用未來的收入預期作為償付能力,鎖定芯片供貨。

但這裏 OpenAI 的收入年化 200 億要在三年內走到年化 1000 億美金,才有真正付得起這些付款承諾的可能性。而目前的巨頭中沒有人在幾年內把自己收入打到千億美金以上。這裏海豚君合理推測,它的目的之一可能就是有意製造供給過剩,以便把算力成本打下來。

OpenAI CEO 奧特曼在問到是否會有算力的產能過剩的時候,他毫不隱藏他對算力過剩的渴望:“肯定會有很多輪的算力過剩,無論是 2-3 年內出現,還是 5-6 年內出現,可能是這個時間內多輪的產能過剩。(“there will be come to a glut (of compute) for sure, whether it’s 2-3 or 5-6 years at some point, probably several points along the way.”)

四、總結:2026 年投資主題——算力結構性過剩 + 產業鏈利潤下移?

從以上分析可以看到,目前整個 AI 產業鏈因為利潤過度集中於上游(一定程度上類似新能源車崛起過程中,利潤一度高度集中於贛鋒和天齊鋰業等鋰礦股),導致下游現在在做場景應用上,像是用金鏟子挖土一樣,場景落地的時候,生產資料成本太高,挖出來的東西完全無法匹配這個生產資料的成本。

因此,在當前這種產業鏈矛盾下,接下來的 AI 投資就是在產業鏈利潤下移 + 結構性供給過剩中找機會,只有算力打下來,才能帶動下游的繁榮。

所謂的結構性過剩,比如説傳統的電力和機房建設速度跟不上,導致算力吃灰;而產業利潤下移,則重點跟蹤就是模型在終端場景上的落地速度、對 SaaS 股的可能影響、端側產品的 AI 滲透、AI 帶來的新硬件如機器人與 AI 眼鏡等等。

到目前為止,海豚君已經開始看到一些產業鏈利潤下移的跡象,比如現在英偉達的客户可以拿着 TPU 來威脅英偉達給出更優惠的供貨條件(其實同樣售價下,需要連帶股權投資,就是一種間接的產品降價)。

以下,海豚君提供幾個可以持續跟蹤和驗證的判斷:

a. 後續的英偉達可能再享受戴維斯雙擊的機會可能非常小,股價只能靠業績增長,很難靠估值擴張;這會在不打壓台積電邏輯的情況下,單獨打壓算力估值。

b. 谷歌開始賣裸芯而不是更高利潤的 TPU 雲租賃的新聞説明了,一方面谷歌在自有芯片的排產上並不是問題(台積電產能安排問題)。

另一方面行業真正緊缺的到 2026 年應該已經轉到了 IDC 數據中心的建設上(如數據中心建設的水污染、用電問題等等),而這部分的投資並不是生意壁壘投資,而是產能錯配投資。需要時刻關注新開工數據中心的建設節奏。

c. 創業企業:AI 遊戲的門檻太高,OpenAI 等新興公司,想要顛覆巨頭並不容易,過度押注 OpenAI 鏈上的資產並不明智。

因為垂直一體化邏輯的長線條競爭中,還是掌握了資金、算力、模型、雲服務和場景的全要素巨頭才更容易勝出。

<此處結束>

相關文章:

《全成 “繩上螞蚱”,OpenAI 是靈珠 or 魔丸?》

《“AI 寵兒” 秒成 “敗家子”,Meta 還能殺回來嗎?》

本文的風險披露與聲明:海豚研究免責聲明及一般披露

本文版權歸屬原作者/機構所有。

當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。