
谷歌:“手撕” 英偉達,翻身仗敍事靠譜嗎?

$谷歌-A(GOOGL.US) 的全棧 AI 邏輯已經演繹了一個多月,看上去圍繞 OpenAI 的循環借貸故事出現破綻,從而導致 “突然” 的 AI 敍事轉變。但 Google 鏈屬於厚積薄發,技術更迭是量變引起質變,而最關鍵是業務定位發生了根本性的變化。
藉着 Anthropic 又下 110 億 TPU 訂單,Meta 推進與 Google 底層語言開發合作之際,海豚君來梳理一下:
1)TPU 生態到底發生了什麼關鍵變化?
2)如何釐清 Google 與 Anthropic、Broadcom 之間的訂單關係?
3)當下估值打入了多少 TPU 預期?
一、直擊核心問題:TPU 的積存訂單與增量收入確認
1、TPU 的技術替代 “突然” 爆發?
如果不是在行業內,這可能大家的第一個疑問。在市場大多數記憶還停留在 TPU 通用性不夠,Google 主要用來內用而非對外商用上時,會非常訝異為何到了 TPU v7 這一版本,突然開講 TPU 對的 GPU 替代邏輯。
這並非市場的重大忽視,奇點形成的關鍵是 TPU 在集團內部的戰略定位轉變——從 “對內為主” 轉為 “對外直接商用”,促使在芯片設計理念上發生了根本性的變化。
在這一輪 AI LLM 時代之前,TPU 的設計理念都偏保守。與英偉達 idia 在設計上更偏重單片核心算力的持續升級,TPU 在設計上更聚焦性價比,即以犧牲極致單片性能,而避免故障率走高導致的物理磨損加速、元件老化、散熱壓力等問題的出現,從而拉高了整體成本。
當然這麼設計的原因還在於,在 TPU 對內使用下對性能追求點與 LLM 也存在差異,尤其是在算力指標上。一方面內部的廣告推薦模型不需要這麼高的算力吞吐,另一方面沒有商用壓力,自然也就沒有 “炫技” 的必要性。
比如下圖比較了廣告推薦模型(Reco)和 LLM 大模型對硬件的性能不同需求,在 Reco 模型下,對算力吞吐、網絡延遲上的要求沒 LLM 那麼高。
但隨着 LLM 時代到來,算力要求大幅提高,集團在對 TPU 的設計思路本身需要升級改變。這個時候順便對 TPU 開啓直接商用,還能在當下的千億算力市場分一杯羹,何樂而不為?於是我們看到,2024 年中推出的 TPU v5 版本在單片算力上出現了顯著提升,並在隨後的 v6、v7 版本繼續大幅拉高。
而在 LLM 另外需要的存儲性能——內存帶寬、內存容量上,TPU v7 版本直接拉齊到了 GB200 的水平,但單卡性能與 GB300 以及英偉達的 Rubin 系列還有明顯差距。
2、大廠客户 “突然” 密集下訂單?
9 月被爆、10 月正式官方披露的 Anthropic 百萬顆 TPU 訂單可以説是一石激起千層浪,TPU 真正走到舞台中央。依據專家調研信息,預計 2026 年 TPU 出貨量將達到 300 萬顆,在 2025 年的低基數上增幅達到 66%。
但前幾天博通的 Q4 業績發佈,提到了 Anthropic 新下的一份 110 億 TPU v7 訂單,預計 2026 年底交付,按單價來算,那麼也是對應 40-50 萬顆的 TPU v7。因此如果能夠按計劃實現交付,那麼 2026 年 TPU 出貨量將至少達到 350 萬顆數量級。
下圖為 Anthropic 的兩次訂單情況,爆出在接觸合作的 Meta、OpenAI 等具體細節還未確認:
不過,雖然紙面上的技術替代性實現了,但要真正獲得頭部大客户的青睞還需要依賴三個關鍵因素,1)性價比;2)芯片封裝產能配給;3)開發生態,實際對應 1)有效算力成本;2)台積電的 CoWoS 產能;3)開發者生態,一如英偉達 idia 核心壁壘——CUDA 生態。
(1)以量取勝,不做鏟子商
雖然 TPU v7 在單卡 Raw Power(原始算力)上可能略遜於英偉達 idia B200,顯著遜於 B300、R100。但在萬卡集羣的有效算力(MFU)上,Google 憑藉獨家的 OCS(光路交換)互聯技術,能大幅緩解傳統 GPU 集羣隨着規模擴大而損耗指數級上升的 BUG。
正如前文所説,單卡極致性能會導致整體硬件的故障率走高,產生磨損、老化、散熱等問題,算力使用效率反而一般,後續的維護會帶來更高的成本壓力。
簡單而言,Anthropic 看中的是性價比,即 “1 美元部署對應的算力”。如下圖所示,TPU v7 單位算力價格(運行一顆芯片 1 小時,所需要的綜合成本,包含芯片和數據中心基建成本、電力成本、維護人力成本等)便宜了近 44%,且其中一次性投入的硬件和基建成本(對應客户的 Capex,需要前置投入)佔比在 72.7%,也比 GB 系列的 77%~79% 略低時,TPU 無疑會進入下游客户算力方案選擇的最終 “決賽圈”。
(2)改變信披戰術,鎖訂單搶產能
儘管台積電和英偉達多年深度合作,且在過去一年多的算力軍備競賽上,雙方攜手獲得了產業鏈中絕大部分的利益,但這層關係並非絕對捆綁到無懈可擊,尤其是當市場開始質疑 OpenAI 的變現力,以及與英偉達之間循環貸款對訂單的增長持續性。從風險規避的角度,台積電會更加註重客户是否存在 “有交付能力的在手訂單”,從而決定產能配給。
因此 Google 對 TPU 的信息披露也對應着發生了變化。既然要與英偉達 idia 競爭,那麼也就是需要和英偉達一樣,儘早公佈新產品路線,以便成為客户做未來算力規劃時的待選方案之一。通過提前鎖定訂單,從而能從台積電處拿到產能。
TPU v7 之前,Google 對 TPU 的信息披露會更加謹慎,畢竟被認定為只對內的 “秘密武器”。比如,2015 年 TPU 一代就已經落地並且被 Google 進行大規模的部署和使用,但直到 2016 年 Google I/O 大會才對外公佈它的存在。隨後的 2-6 代,雖然披露略有放寬,一般是 I/O 大會發布 PPT 後一年內就實現了 Cloud 上線使用,也就是説在發佈時就已經談好了產能規劃。
但這次 v7,為了搶到訂單,Google 早早發佈 TPU v7 產品細節(2025 年 4 月發佈),但彼時產能還未鎖定,直到 8 月盛傳 Broadcom 追加對 CoWoS 的產能(大概率是因為為 TPU v7 提前準備),隨後 9 月 Anthropic 才敲定與 Google TPU 的合作,涉及到 TPU 機架的直接銷售(10 月底公開披露),而最近當 Anthropic 追加了 110 億訂單,Broadcom 則再次與 TSMC 鎖定明年的產能。
因此,從 Broadcom 向 Anthropic(最早下訂單的頭部客户)允諾的交付時點來看(2026 年中和 2026 年底),Google 對 TPU v7 的信息披露要相當於早於實際部署的 1-2 年的時間,明顯早於前幾代。
(3)為何説英偉達的軟件生態優勢出現裂縫?
但能讓動不動砸上百億支出的大廠們,敢於下 TPU 的訂單,光靠便宜肯定不夠,關鍵在於軟件生態的有效完善,這也是 TPU 走向大規模商用需要解決的關鍵問題。
英偉達之所以壁壘深厚,硬件單卡性能只是表面,CUDA 才是裏子。CUDA 是英偉達 idia 推出用來讓 GPU 理解 C+、Python 的底層算子庫,近 20 年行業的開發經驗積累,使得 CUDA 在 AI 開發領域幾乎不可跨越:前一代的工程師們基於 CUDA 寫好了工具模塊 PyTorch,後一代的工程師們無需從 0-1 寫代碼,而是直接套用 PyTorch 工具來做進一步的開發。
由此看來,要顛覆 CUDA,最重要的是 “工具庫” 和 “人才”。那麼 TPU 是怎麼解決的呢?
a. 主動的定點優化:編譯器 2.0+vLLM 直接支持 TPU
對應 CUDA,TPU 的底層算子庫是 Pallas。由於 TPU 發展晚一些,且之前一直對內,未對外商用,因此 Pallas 生態裏面幾乎只有 Google 自己的工程師在補充算子。而 TPU 生態中與 PyTorch 工具庫對應的,則是 JAX。由於手寫 Pallas 算子的過程太複雜,Google 另外推出了 XLA 編譯器,來實現從 JAX 到底層指令集(TPU Runtime)的調用。
但一己之力 vs 多人合力的天然弱勢,要讓 Pallas/JAX 去追趕 CUDA/PyTorch 的難度太大。軟件生態的缺陷成為 TPU 商業化的核心阻力之一,除非客户本身具備 JAX 人才(這幾乎只有 Google 內部的人跳到甲方關鍵崗位,再身體力行的推行 JAX 才行)。
因此 Google 推出了 PyTorch/XLA 編譯器,它能讓原本為 GPU 設計的 PyTorch 代碼,編譯並運行在 TPU 上。1.0 版本還不太絲滑,但 23 年推出的 2.0 版本,優化了 1.0 版本的 TPU 啓動速度慢問題,不過還是會出現首次編譯時間長等問題。
又一個轉折點在 2024 年下半年,Google 實現了 vLLM 對 TPU 的原生支持——2024 年 7 月底披露,vLLM 可以實現在 TPU v5e 和 v6e 上運行,隨後不斷完善。
vLLM 是目前 AI 推理(讓模型回答問題)領域滲透率最高的開源軟件庫,最早是為了解決英偉達 idia 顯卡碎片化問題而誕生,因此天然適配 GPU。Google 為了讓 vLLM 實現對 TPU 的原生運行,與 vLLM 團隊深入合作,使用 Pallas 重寫了基於 vLLM 的核心算子,通過使用 JAX + Pallas,vLLM 可以直接調用 TPU 的底層內存管理能力,避開了 PyTorch/XLA 編譯器帶來的延遲和額外開銷。
c. 被動的開發者滲透:“AI 黃埔軍校” 的人才戰術
這一輪 AI 基建,上游廠商吃了產業鏈絕大多數利潤,但行業的繁榮最終來自下游的百花齊放。對於上游而言,捆綁客户以獲得持續的需求是關鍵。英偉達 idia 採取的方式是股權投資,相當於 “芯片折扣 + 風險投資收益”。
做股權捆綁並沒有壁壘,都是送錢,Google 完全可以複製操作。實際上,Google 很早就對 Anthropic 進行了積極投資,投入 30 億持股比例達到 14%(不含投票權)。目前 Anthropic 估值達到近 2000 億美元,且不論是否捆綁芯片合同,Google 已經從這筆風投中獲得了不錯的收益。
但還是那句話,單純股權捆綁(“送錢”)並不是獨家方案。CUDA 的繁榮也在於生態強大,也就是開發者眾多。因此,這裏面的關鍵因素還是 “人才”。
上文提到 vLLM 直接支持 TPU,這對頭部客户來説是明顯利好。畢竟這個路線繞開了編譯器,如果要實現絲滑運用,那麼還要配備足夠懂 JAX/XLA 的 TPU 人才,對於頭部用户,Google 應該會專門配備技術支持團隊。
但實際上還有 “意外之喜”,作為 AI 老牌大廠的 Google,這麼多年同時也在對外 “輸送” 人才。因此,Anthropic 的 100 萬 TPU 大單能夠促成,少不了 “人” 的推動——Anthropic 內部有不少前 DeepMind 的 TPU 人才,因此在這次合作之前,內部就已經在 TPU 上訓練了 Sonnet 和 Opus 4.5。
因此從上述的 “技術迭代 + 人才推動” 兩個角度而言,TPU 的軟件生態問題可以比預想的速度更快實現補漏。
二、新一輪 AI 敍事下 Google 的價值
全棧 AI 的敍事邏輯在資本已經演繹了兩個月,Google 在此期間也上漲了近 30%,成為 2025 年初絕對想不到的 Mag 7 明星。雖然近期 Google 也跟隨 AI 情緒轉冷而暫停了上漲趨勢,但不可否認,在當下 Google 的 AI 邏輯仍然是相對較順的。
因此在這個 “中場休息” 時段,海豚君來扒扒賬:若 2026 年 TPU 也走到 AI 算力的聚光燈下,那麼對 Google 的價值會有多少增量?近 4 萬億美金市值的 Google,打入了多少 TPU 預期?
1. Google 版的算力是如何賺錢的?
在今年 Q2 之前,Google 主要通過 GCP 做算力租賃的服務,出租的算力有英偉達 idia 的 GPU 也有自己的 TPU。但從 Q2 推出 TPU v7 開始,正式開啓 TPU 芯片直銷的大規模商用。
不同服務的提供,對應不同的利潤率,同時也代表 Google 背後的戰略意圖:
(1)GPU 算力租賃:屬於 GCP 雲業務;本質上是英偉達 idia 的二道販子,自然毛利率最低只有 50% 左右,主要給那些技術能力較弱的中小廠商準備(不願意用 TPU 編譯器把基於 CUDA 寫的底層代碼重寫一遍),承接一些外溢的算力需求。
(2)TPU 算力租賃:屬於 GCP 雲業務;因為 TPU 自研,因此少了中間商賺差價,再加上本身技術路線的差異,儘管 TPU 算力租賃價格是 GPU 的 60%-70%,但對於 Google 來説,仍然可以賺 70-80% 的毛利率。
(3)TPU 機架銷售:屬於第三方的算力售賣服務,等於是和英偉達等同台競爭。TPU 並非像 GPU 那樣 “即插即用”,TPU 的優勢是 ICI(芯片間互連)和 OCS(光交換),單台服務器無法連入超高速的光網絡,因此最小銷售單位是一個服務器機架,每個機架包含 64 顆 TPU 芯片。
具體銷售時分成兩種情況:
一種是 Broadcom 直銷客户,Google 收個 GDC 軟件棧的技術支持費;
另一種是 Google 直銷客户,那麼 Google 確認硬件收入,Google 付給 Broadcom、SK 等的硬件採購、代工費用為成本。
由於 TPU 需要客户具備一定的技術適配能力,因此客户目前都是行業頭部。Anthropic 是由 Broadcom 直接發給 Anthropic,但 Meta、xAI 等目前正在排隊與 Google 商量 TPU 合作事宜等,也不排除是上述後者情況。
在 Anthropic 的合作案例裏面,由於是 Broadcom 直銷 + 託管 Anthropic 自己找的第三方數據中心,因此這裏面 Google 並不確認硬件銷售收入,只是對 Anthropic 使用 TPU 軟件棧(系統軟件、編譯器 XLA 和框架 JAX)收取一定的技術支持、安全更新的服務費。
這部分主要是研發前置投入、人員團隊的支持,所以邊際成本較低,對 Google 來説,毛利率可以做到很高。
這裏面的特殊之處在於,在 Anthropic 預定的近 100 萬塊 TPU 上(第一筆 40 萬塊 + 第二筆 40-50 萬塊),Google 並未染指 TPU 硬件收入部分。海豚君認為,至少在與英偉達 idia 合作密切的頭部廠商上,Google 還是更傾向於不賺所謂的 “鏟子錢”。
這是因為,英偉達 idia 及其生態夥伴對 Anthropic 等頭部客户都用股權投資來給了個內部折扣價:
a. 英偉達投資 OpenAI 1000 億,以換取 10GW 算力合同的綁定,暫時不看股權增值收益,相當於給 OpenAI 打了個七折(1-100/350);
b. 微軟、英偉達分別向 Anthropic 投資 50、100 億,換取 300 億的 Azure 合同,相當於打了個對摺。
因此這種情況下,如果單顆系統級 TPU v7 價格再算上 Google 的溢價,那麼就相對 H200、B200 沒有明顯的性價比優勢了。
可以合理推測,Google 並未參與到 TPU 硬件銷售收入的分成上,而目的是做大 TPU 生態(尤其是開發者生態),後續通過按年付費的軟件棧服務,以及雲租賃算力來獲得更多具備一定溢價的變現。
當然,這也不排除如果 TPU 生態完善度提升,Google 也可以做起芯片直銷的模式。但短中期而言,我們認為還是做大生態、讓更多的開發者參與進來是主要目標,賣鏟子(實際也賣不出太多溢價)只佔少數。
2. 當下估值隱含了 TPU 多少預期?
從積壓合同額(Revenue Backlog)來看,Google Cloud 最早在 2024 年二季度就已經受益 AI(收入反映在 3Q25)。不過彼時 Google Cloud 的客户大多還是以中小企業、傳統企業的需求為主,除了 Workspace 的慣性增長趨勢,在 AI 方面貢獻增量(數十億量級)的產品形式還主要是 Gemini 大模型的 API。
而在芯片算力上,Google 還在遵循市場主要方案,按部就班的採購英偉達芯片——2025 年初採購 Blackwell 系列(GB200、300)。
2025 年二季度,隨着 TPU v7 的發佈以及市場對 AI 的使用滲透升級,積壓合同餘額在高基數上重新加速增長,這裏面應該就已經有了一些 TPU v7 帶來的算力租賃增量。
而三季度淨增的 470 億中,應該就包含 420 億的 Anthropic 算力租賃訂單(前文 Anthropic 訂單明細表格中 60 萬顆 TPU 算力租賃,按照每顆 TPU v7 1.6 美元/小時單價計算,60 萬 *1.6 美元/h*24h*365 天 *5 年=420 億美元)。
Anthropic 並非剛開始租 TPU 算力,而是一直在用,只不過過去佔比不高而已。這次 420 億的算力租賃訂單,5 年週期下平均每年將帶來 84 億的 Google Cloud 收入,這相當於 2025 年預計 615 億美元 Google cloud 收入的 14%。
目前在 TPU 算力租賃這塊,大廠裏面還有 Apple,中小廠比如 Snap,傳統 SaaS 的 Salesforce 以及 AI 新貴 Midjourney。Meta 在 11 月也已經宣佈有意合作:
第一階段(2026 年)為算力雲租賃,第二階段(2027 年)為 TPU 直採,然後部署在自己的數據中心。近日被爆料進展,雙方就底層語言的暢通正在共同開發 TorchTPU,一如其名,旨在將 Meta 基於 Pytorch 寫的代碼,能夠更加絲滑的運行在 TPU 上。
根據機構原來預期,Meta 2026 年 Capex 為 1000-1200 億,近期 Meta 有意收縮元宇宙投入(約減少 30%)。GPU 原計劃採購 100 萬顆,大頭為 GB200,另外為 V100。
但現在,考慮到 Meta 目前正在積極接觸 Google TPU,海豚君預計 TPU 合同為 70 億,但 2026 年主要還是算力租賃,這部分支出計入 Meta 的 Opex,芯片採購部分為 20 億。剩下 500 億美元為 Blackwell 系列採購額,在一定折扣下,有望獲得對應 2GW 的算力,如下圖預估:
如果 20 億芯片採購合同,直接與 Google 交易,按照 2.5 萬美元/顆,對應 8 萬顆。2027 年預計該芯片採購升至 50 萬顆,那麼直接帶來 50*2.5 萬/顆=125 億合同額(如果直接從 Broadcom 拿貨,那 Google 不確認硬件收入),按照 3~5 年,平均 5 年的使用週期來算,每年確認收入 25 億。
這部分 TPU 對應算力規模大約 0.5GW,如果 Meta 目標算力需求不變,那麼相當於 175 億的 GPU 收入被影響了。總而言之,無論採取什麼樣的 TPU 交付方式,或者對 Google 的收入有主要拉動,對利潤是次要拉動,但對英偉達 idia 收入預期的影響會因為同等算力下英偉達 idia 溢價更高而同步放大。就如上文,TPU 拿了 125 億的合同,單英偉達產生了近 175 億的收入缺口需要從別處找補。
回到 Google 身上,由於 TorchTPU 的開發進展並不確定,因此我們暫時將 Meta 的 TPU 訂單視為樂觀預期下的向上期權。即中性預期下,僅考慮 Anthropic 這一個頭部客户:
按照我們假設,2026 年預計 Google Cloud 收入為 787 億,同比增幅 34%,其他的 Google Services 收入預期增長 10% 保持不變。當前 3.65 萬億美金,剔除掉 Services 部分估值(經營利潤預計為 1520 億,利潤率 39%,PE 給到 15x),那麼 Google Cloud 市值 1.32 萬億對應 17x EV/Sales。
和同行比,谷歌雲業務估值並不算低,説明至少是租賃 TPU 算力上,中性預期的估值打入得差不多。要進一步消化估值辦法就是等到 Meta 的訂單(26 年算力租賃,或者是 27 年 TPU 由 Google 直銷,如統一按照 15x EV/sales 對應 26 年估值新增 1050 億美元,相比當前還有 3% 左右的空間提升),或者是中小公司比我們的預期更好。
因此換句話説,每一次與 Meta 的合作進展披露,都有可能對短期 Google 股價帶來提振。若最終合同額不足我們預期的 70 億,那麼短中期的提振效果會相對有限。尤其是預期拉得過高的時候,還要考慮 26 年擁有接近 10 億 MAU 的 OpenAI 如果加速變現可能給谷歌帶來的向下風險。
但從另一個角度,若 Google 以犧牲短期業績的代價,換來了更廣的 TPU 滲透——比如繼續壓價,或者從 Broadcom 直銷客户,雖然沒有吃到太多硬件直銷收入,但是讓更多的客户開始適應 TPU 的底層框架,後續仍可通過軟件棧、雲租賃的形式收回來,這與 GPU 在硬件銷售時表現出的高額英偉達税,本質是一樣的,都是一種競爭壟斷的溢價。
<此處結束>
海豚研究「Google」相關文章:
財報季
2025 年 10 月 30 日電話會《谷歌(紀要):我們是唯一一家全棧 AI 的雲平台》
2025 年 10 月 30 日財報點評《谷歌的神反轉:從 AI“犧牲品” 變 AI“弄潮人”》
2025 年 10 月 30 日電話會《谷歌(紀要):雲業務大單翻倍,算力緊缺還會延續到明年》
2025 年 10 月 30 日財報點評《谷歌: AI 狼沒來,廣告一哥穩坐釣魚台》
2025 年 4 月 24 日電話會《Google(紀要):定調二季度表現還為時尚早》
2025 年 4 月 24 日財報點評《谷歌:關税大棒揮不停,廣告一哥真能穩如山?》
2025 年 2 月 5 日電話會《谷歌(紀要):雲放緩是投入不夠,後面還要投投投!》
2025 年 2 月 5 日財報點評《谷歌:750 億狂砸 AI,大哥瘋起來超 Meta》
熱點
2025 年 10 月 27 日《谷歌:我命由我不由 OpenAI》
深度
2023 年 12 月 20 日《谷歌:Gemini 解不了 “小鬼” 纏身,明年日子不容易》
2023 年 6 月 14 日《深度長文:ChatGPT 是劫殺谷歌的 “滅霸響指”?》
2023 年 2 月 21 日《美股廣告:TikTok 之後,ChatGPT 要掀起新 “革命”?》
2022 年 7 月 1 日《TikTok 要教 “大哥們” 做事,Google、Meta 要變天》
2022 年 2 月 17 日《互聯網廣告綜述——Google:坐觀風雲起》
2021 年 2 月 22 日《海豚投研|細拆谷歌:廣告龍頭的修復行情結束了嗎?》
2021 年 11 月 23 日《Google:業績與股價齊飛,強勢修復是今年主旋律》
本文的風險披露與聲明:海豚投研免責聲明及一般披露
本文版權歸屬原作者/機構所有。
當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。

