
博通(紀要):AI 收入增速在下個財年將超 60%
以下為海豚投研整理的博通 AVGO2025 財年第三季度的財報電話會紀要,財報解讀請移步《英偉達、AMD 寡淡?博通霸氣接棒 AI 扛旗手》
一、$博通(AVGO.US) 財報核心信息回顧
1. 整體財務業績:
a. 毛利率:主要得益於軟件收入佔比較高和半導體內部產品組合優化。
b.經營利潤率: 65.5%,儘管毛利率因產品組合變化而環比下降,但營業利潤率仍因經營槓桿效應而環比提升。
c. 總運營支出: 20 億美元(剔除股權激勵等費用),其中研發 (R&D) 投入: 15 億美元,顯示出對技術創新的持續投入。
2. 分部門財務分析:
a. 半導體解決方案部門(AI+ 非 AI)收入 92 億美元 (同比增長 26%),佔公司總收入的 57%。毛利率約為 67%,因產品組合變化同比略有下降。營業利潤率 57%,得益於對 AI 研發的投入和規模效應,同比上升 130 個基點。
b. 軟件服務收入 68 億美元 (同比增長 17%),佔公司總收入的 43%。毛利率:高達 93% (去年同期為 90%)。營業利潤率約為 77%,遠高於去年同期的 67%,這明確反映了 VMware 整合工作已經完成並帶來了顯著的利潤提升。
3. 現金流: 自由現金流達到 70 億美元,佔收入的 44%。資本支出 1.42 億美元,支出剋制。
4. 運營效率: 庫存 22 億美元,為應對 Q4 增長預期而環比增加 8%。庫存週轉天數 從 Q2 的 69 天降至 66 天,顯示出高效的庫存管理紀律。銷售週轉天數為 37 天。
5. 資本結構: 現金季末持有 107 億美元。總債務 663 億美元,大部分為固定利率長期債務 (平均利率 3.9%,平均年限 6.9 年)。 Q3 向股東支付了 28 億美元的現金股利。
二、博通 AVGO 財報電話會詳細內容
2.1 高管陳述核心信息
1. 整體財務表現:總收入達到創紀錄的 160 億美元,同比增長 22%。調整後 EBITDA 達到創紀錄的 107 億美元,同比增長 30%,佔收入的 67%,高於 66% 的指引。收入增長主要由 AI 半導體的超預期表現和 VMware 業務的持續增長驅動。公司合併積壓訂單總額達到創紀錄的 1100 億美元。
2. AI 半導體業務:收入 52 億美元,同比增長高達 63%,已連續 10 個季度實現強勁增長。
a. XPU: 業務加速增長,已佔 AI 收入的 65%。現有 3 家主要客户需求持續增長。新增一名正式客户(第 4 個客户),該客户已基於我們的 XPU 產品,確認了超 100 億美元的 AI 相關產品訂單。因此,公司大幅上調了對 2026 財年 AI 收入的預期。
b. AI 網絡業務: 需求強勁,博通正通過技術創新解決 AI 集羣擴展的挑戰。
- Scale-Up: 推出開放以太網方案,可擴展 512 個計算節點,遠超當前主流方案的 72 個。
- Scale-Out: 推出 Tomahawk 6,將網絡層級從三層降至兩層,降低延遲和功耗。
- Scale-Across: 推出 Jericho4,支持跨數據中心擴展超過 20 萬個計算節點的超大規模集羣。
3. 非 AI 半導體業務 (復甦緩慢):Q3 收入 40 億美元,環比持平。
a. 細分表現: 寬帶業務環比強勁增長,但被企業網絡和服務器存儲的下滑所抵消;無線和工業業務持平。
4. 軟件服務:Q3 收入 68 億美元,同比增長 17%,超出預期。本季度合同總價值超過 84 億美元。
a. 正式發佈 VMWare Cloud Foundation (VCF) 9.0。這是一個經過兩年開發的完全集成的私有云平台,使企業客户能在自己的數據中心或雲端運行包括 AI 在內的所有應用。管理層認為這是公有云的一個真正替代方案。
5. 2025 財年 Q4 指引:
a. 總收入: 預計約為 174 億美元,同比增長 24%。
b. 調整後 EBITDA: 預計將佔總收入的 67%。
c. AI 半導體收入: 預計約為 62 億美元,同比增長 66%,繼續保持高速增長。
d. 非 AI 半導體收入: 預計約為 46 億美元,受益於季節性因素,將實現低兩位數的環比增長。其中,寬帶業務、服務器存儲業務與無線業務預計將有所改善,而企業網絡業務仍將環比下降。
e. VMware 收入: 預計約為 67 億美元,同比增長 15%。
f. 毛利率: 預計環比下降約 70 個基點,主要因為高佔比的 XPU 和無線業務產品組合影響。
g. 税率: 預計非 GAAP 税率保持在 14%。
2.2 Q&A 問答
Q:您提到,現在預計 AI 業務的增長將 “顯著快於” 上一季度的預期。這種展望的改變,主要驅動因素是什麼?是因為那位新的潛在客户已經轉變為正式客户,並帶來了那筆 100 億美元的積壓訂單嗎?還是説,我們現有的三位主要客户的需求也變得比預期更強勁了?
A:情況是兩者兼有。我們上調預期的主要原因,是新增了第四位定製化芯片客户。公司在 2026 年開始將大規模出貨。這位新客户帶來了直接且相當可觀的需求,再加上我們現有三位客户的訂單量也在穩步持續增長,這兩方面因素共同作用,從根本上改變了我們對 2026 年業績前景的看法。”
Q:關於非 AI 半導體業務,您之前提到這部分業務接近週期性底部且復甦緩慢。我們應該如何看待這次週期性復甦的力度?鑑於你們 30 到 40 周的交付週期,你們是否在非 AI 業務領域看到了持續的訂單改善,這是否預示着復甦勢頭能延續到下一個財年?
A:我們對 Q4 的指引確實顯示非 AI 業務同比有 1-2% 的微弱增長,但這並不值得過多關注。目前的情況是,除了我們看到的季節性因素外,各個細分市場的表現好壞參半,整體上並沒有形成明確的復甦趨勢。過去三個季度唯一持續強勁增長的只有寬帶業務,而其他領域尚未展現出可持續的上行勢頭。總而言之,情況沒有變得更糟,但我們也沒有看到期望中 V 型反彈。我更傾向於認為這將是一場U 型的緩慢復甦,或許要到 2026 年中後期才能看到更有意義的恢復。但就目前而言,前景尚不明朗。
Q:考慮到你們長達 40 周的交付週期,你們是否已經開始在訂單趨勢中看到(非 AI 業務的)復甦跡象了?
A:我們確實看到了。但我們之前也曾經歷過類似情況……預訂量是增長的,同比增長超過了 20%。當然,這無法與 AI 業務的預訂量相提並論,但 23% 的增長仍然相當不錯。
Q:上次您提到 AI 收入在 2026 財年可能增長 60%。在計入新客户帶來的 100 億美元訂單後,這個增長預期現在更新為多少?展望 2026 年,AI 業務中 “定製化芯片” 與 “網絡芯片” 的收入組合,是會保持和過去一年大致相同的比例,還是會更偏向於定製化芯片?
A:我需要先澄清一下:上個季度我只是説 2026 年的增長趨勢會 ‘反映’2025 年的情況,也就是大約 50%-60% 的同比增長率,我並沒有給出一個確切的數字。現在我想表達的,或許更準確的説法是:我們看到的增長正在 ‘加速’,而不僅僅是保持在 50%-60% 的穩定水平。我們預計 2026 年的增長率會超過 2025 年(50-60% 增長)。我知道你希望我給出一個具體的數字,但我們目前還不能提供 2026 年的業績預測。不過,最好的描述方式是,這將是一次相當可觀的提升。
正如我之前提到的,2026 年增長的一大驅動力將來自 XPU。一方面,我們在這三家原有客户中的份額在持續增加,因為隨着他們技術的迭代,對 XPU 的採用會越來越多;另一方面,我們又新增了第四位非常重要的客户。這兩個因素疊加,意味着我們的業務將更加偏向 XPU。
雖然我們也會獲得這四大客户的網絡芯片業務,但相比之下,來自這四家之外的網絡業務佔比將會被稀釋、顯得更小。因此,可以預見,到 2026 年,網絡芯片在整個 AI 業務收入中的百分比將會下降。
Q:關於這 1100 億美元的未交貨訂單,這個數字具體是如何組成的?其中,AI 業務、非 AI 業務和軟件業務各佔多少?這些訂單的交付週期大概有多長?
A:我們通常不會提供未交貨訂單的具體細分數據,它主要是為了展示公司整體業務的強勁勢頭。這個數字的增長很大程度上是由 AI 業務驅動的。與此同時,軟件業務在穩步增加,非 AI 半導體業務也實現了兩位數的增長,但與 AI 的強勁增長相比就相形見絀了。如果非要給一個大致概念的話,這其中至少有一半(50%)是半導體業務。可以合理地認為,在半導體這部分訂單中,AI 相關的業務要遠多於非 AI 業務。
Q: 除了現有的四大客户,與其他三位潛在客户的對話進展怎麼樣了?您如何看待從 2027 年開始,由這些潛在新客户帶來的增長勢頭?它將如何塑造公司未來的發展?
A:對於這個問題,我不想給出一個主觀的判斷,因為坦白講,我無法給出準確的答覆。在實際操作中,我們有時會在意想不到的時間點上在生產環節遇到障礙,同樣地,項目也可能被推遲。因此,我寧願不給你更多關於這些潛在客户的細節。我只能告訴你,這些都是真實存在的潛在客户,我們正與他們每一家都保持着非常緊密的合作,他們也都在投入各自的資源進行開發,並且都有明確的意向要進入大規模量產階段,就像我們今天擁有的這四家客户一樣。
Q:您是否仍然認為,這七家客户(4 家現有 +3 家潛在)合計達到 100 萬顆芯片出貨量的目標,依然是有效的?
A:不,我之前説的只針對我們現有的客户。對於那三個潛在客户,我沒有任何評論,也無法做出判斷。但對於我們現有的這四家客户來説,是的。
Q:在您已經確認的七家客户(4 家現有 +3 家潛在)之外,您認為這個市場上還有多少值得開發定製 AI 芯片的潛在客户? 您是如何評估這些新增潛在客户的?考慮到您一向對客户數量和其能帶來的體量非常挑剔,能否為我們描述一下您看到的、在 “七大客户” 之外的機會格局?
A:我們將這個市場分為兩大塊:第一類是自己開發大型語言模型(LLM)的客户。第二類是企業級市場, 即那些為企業運行 AI 工作負載的市場,無論是通過本地部署還是雲服務。坦白説,我們不涉足企業級市場,因為這塊市場很難切入,我們的組織架構也不是為此設計的。
我們的重心完全在第一類,也就是大型語言模型(LLM)的開發者。 正如我多次提到的,這是一個非常狹窄、由少數玩家主導的市場。這些玩家正引領着前沿模型的發展,持續向着 ‘超級智能’ 加速邁進。他們不僅需要在訓練階段投入巨資,構建越來越大、越來越強的加速器集羣,同時,他們也必須對股東負責,需要創造現金流來維持發展路徑。因此,他們也必須大規模投資推理(inference)能力,以將模型商業化變現。這些人就是我們的目標客户。 他們每一家都會在計算能力上投入鉅額資金,但這樣的玩家數量非常稀少。我已經確定了七家,其中四家已是我們的客户,另外三家是我們在持續接洽的潛在客户。我們在篩選誰符合標準時非常挑剔和謹慎——他們必須正在構建或已經擁有一個平台,並大力投資於領先的大型語言模型。
我們或許能看到新增一家潛在客户,但即便是做出這個判斷,我們也會極其深思熟慮。所以,可以肯定地説,我們現在有七家。就目前而言,這就是我們所擁有的全部了。
Q: 您提到 Jericho4,英偉達也在談論 XGS 交換機,聽起來這個專為 AI 集羣設計的交換機市場正在真正起飛。您能具體談談為什麼認為這塊業務的收入會迎來 “實質性提升” 嗎?隨着 AI 應用越來越多地轉向推理(inferencing),為什麼像 Jericho4 這樣的交換芯片變得愈發重要?它在推理場景中扮演了怎樣的關鍵角色?
A:確實,我們先談 ‘scale-up’(向上擴展),也就是在單個機架內或單個數據中心內部署計算節點;現在我們越來越多地談論 ‘scale-across’(橫向擴展),即跨數據中心的擴展。
當你構建一個超過 10 萬個 GPU 或 XPU(定製 AI 芯片)的超大規模集羣時,你很快會遇到物理限制,比如單個數據中心的佔地面積或供電能力可能不足以容納這麼多設備。因此,我們看到幾乎所有的大客户都在採用一種新策略:他們在彼此相近的區域(比如 100 公里範圍內)建立多個數據中心站點,然後在這些站點內部署同構的 AI 芯片。
最酷的部分在於,通過網絡將這三四個站點連接起來,讓它們像一個單一、巨大的集羣一樣協同工作。 這就是 ‘scale-across’。
要實現這種跨地域的連接,就需要一種特殊的網絡技術,它必須具備深緩衝(deep buffering)和智能擁塞控制(intelligent congestion control)能力。這其實不是什麼新技術,它已經在電信領域(如 AT&T、Verizon)的網絡路由中應用了很多年。現在,我們把它用在了 AI 工作負載這個更復雜的場景中。
在過去的兩年裏,我們已經以 Jericho3 的形態向幾家超大規模客户供貨,用於連接他們的集羣。隨着 AI 訓練對帶寬的需求不斷擴大,我們現在推出了新一代的 Jericho4,它擁有 51.2T 的帶寬來處理更大的流量。
關鍵在於,這背後是我們在過去一二十年裏已經得到充分測試和驗證的成熟技術。它運行在以太網上,非常穩定可靠。它不是為了 AI 憑空創造的新東西,而是成熟技術的應用升級。
Q:您是否已經將所有前 10,000 名大客户從單一的 vSphere 產品,全面轉換到了包含所有組件的 VMware Cloud Foundation(VCF)訂閲方案?(上一季度這個比例是 87%,現在完成了多少?)
A:我們前 10,000 名大客户中超過 90% 已經購買了 VCF(VMware Cloud Foundation)。但我需要澄清一下措辭:他們購買了 VCF 的部署許可,不代表他們已經完成了全部的部署。
這正是我們工作的第二階段:與這些客户合作,幫助他們成功地在自己的本地基礎設施上部署、運營和擴展他們設想的私有云。這是未來兩年的核心工作。隨着部署的深入,我們預計 VCF 將在他們的 IT 環境中持續擴張。VMware 故事的第一階段是説服客户從永久許可轉向 VCF 訂閲;第二階段就是幫助客户在 VCF 上真正實現他們期望的私有云價值。 在這個基礎上,我們未來還將銷售安全、災難恢復甚至 AI 工作負載等高級服務,前景非常令人興奮。
Q:當這些企業客户採用 VMware 方案後,您是否在博通原有的硬件業務(如半導體、存儲、網絡產品)上,看到了具體、切實的交叉銷售增長?
A:不能。 這兩者是完全獨立的。事實上,當我們幫助客户虛擬化他們的數據中心時,我們有意識地接受了一個事實:我們正在 ‘商品化’ 底層的硬件,包括服務器、存儲乃至網絡。這沒關係,因為通過這種方式,我們實際上幫助企業降低了在數據中心硬件上的投資成本。
Q: 除了這些大客户,其他更廣泛的企業客户羣體對採用 VCF 的興趣如何?
A: 我們取得了一些成功,但我們不預期能獲得同等程度的成功,主要有兩個原因:①對於中小企業來説,部署 VCF 所能帶來的總體擁有成本(TCO)節省可能沒那麼顯著。②更重要的是,持續運營和維護這樣一個私有云平台所需的技術能力,可能超出了許多中小企業所能承擔的範圍。
這部分市場我們仍在學習和探索中。VMware 總共有 30 萬客户,我們認為前 10,000 名客户部署 VCF 私有云的價值是巨大的。至於接下來的 2 萬到 3 萬家中型企業是否會看到同樣的價值,還有待觀察。
Q:您預計整體毛利率僅下降 70 個基點(bps),但考慮到貢獻更大的 AI 芯片(XPU)和季節性無線業務通常會拉低半導體業務的利潤率,同時軟件業務收入環比下降,這一下降幅度似乎過小。 您能否幫我理解一下,是哪個部分的強勁表現抵消了這些負面因素,從而使得整體毛利率僅出現如此温和的下降?是軟件業務的利潤率真的有那麼大的提升空間嗎?
A:我們預計AI 芯片(XPU/GPU)和季節性的無線業務收入都將增長,同時軟件業務的收入也會略有上升。第三季度通常是我們無線業務全年出貨最重的季度。所以,你會看到無線業務和 AI 芯片(它們的毛利率相對較低)的收入貢獻在增加,而軟件業務的收入則相對穩定。這正是影響整體毛利率的幾個主要動態因素。
Q: 您之前曾將您的 AI 客户大致分為兩類:一類是超大規模雲服務商(如客户 4 和 5),另一類是原生的大模型開發商(如客户 6 和 7)。您能否幫我們歸類一下這次提到的定製 AI 芯片客户屬於哪一類?您提到的那筆價值 100 億美元的 AI 芯片訂單,能否透露一下它的交付時間框架大概是多久?
A: 關於客户分類,其實很難嚴格區分。最終來看,我們這七個定製芯片客户都與大語言模型(LLM)相關。雖然不是每個客户都像頭部雲廠商那樣擁有龐大的現有平台,但可以預見,它們最終都會建立或擁有自己的平台。所以,區分的界限正變得越來越模糊。
至於你問到的那筆價值 100 億美元的訂單,我們預計將在 2026 財年的下半年開始交付。更精確一點説,很可能是在 2026 財年的第三季度完成這筆 100 億美元訂單的交付。
Q: 您如何評價自家 Scale-up 以太網方案目前的市場發展勢頭?與業界其他方案(如 UALink 和 PCIe)相比,它的競爭力如何?推出具有更低延遲的 Tomahawk 5 Ultra 交換機芯片,對於增強你們 Scale-up 方案的吸引力有多重要?展望未來一年,您認為 Scale-up 以太網在您的 AI 網絡業務中,能成長為一個多大的商業機會?
A: 首先,以太網方案與 AI 加速器(XPU/GPU)的分離程度很高。我們堅信以太網應作為開放標準,讓客户擁有選擇權,而不是與某個特定的 AI 芯片綁定。
對於那些使用我們定製 AI 芯片(XPU)的客户,我們在開發過程中會將網絡交換機等組件與芯片進行協同優化,確保信號傳輸的最佳性能。這種手拉手的開發經驗,讓我們能夠非常高效地處理以太網接口。因此,在我們的客户生態中,我們正非常公開地推動以太網成為首選網絡協議。
這種策略效果顯著,尤其是在超大規模雲服務商(hyperscalers)那裏。他們有能力將 GPU 集羣的構建與網絡架構分開設計,特別是在需要橫向擴展(scale-out)的大規模集羣中。在這種場景下,我們銷售了大量的以太網交換機。我們預計,隨着這種解耦的趨勢進一步發展,以太網的應用會更加廣泛。
總而言之,無論是在我們自己的生態系統內,還是在那些能夠獨立構建網絡架構的頭部雲廠商那裏,以太網都已經成為事實上的標準。而我們作為該領域的領導者,自然從中受益。
Q: 您認為像 UALink 或 PCIe 這樣的新興互聯技術,有沒有可能在 2027 年左右(當它們預計大規模應用時)取代以太網,成為 AI 集羣互聯的主流方案?
A: 我對此有偏見,但這偏見源於一個顯而易見的事實:以太網久經考驗、根基深厚。對於所有超大規模雲廠商裏設計 AI 數據中心的工程師和架構師來説,以太網是他們最熟悉、最自然的邏輯選擇,並且他們已經在廣泛使用和聚焦於此。在我看來,捨棄這樣一個成熟的生態,去開發全新的、獨立的協議,是一件難以想象的事情。
唯一的爭議點在於延遲,這也是 NVLink 等技術出現的理由。但即便如此,降低以太網的延遲也並不困難。我們(以及其他幾家廠商)只需對交換機進行調整,就能輕鬆將延遲做到 250 納秒以下,比 NVLink 或 InfiniBand 更出色——我們已經做到了。這是我們過去 25 年在以太網領域技術積累的體現。
因此,我認為以太網是未來的方向。它的開放性也意味着競爭的存在,這正是超大規模雲廠商喜歡它的原因之一——他們不希望被單一供應商鎖定。我們歡迎這種開放競爭。
Q:您如何看待來自美國和亞洲其他廠商在定製 ASIC 領域的競爭威脅?您認為這種競爭是在加劇還是在減弱?
A: 在這個領域,我們保持領先的唯一方法就是持續不斷地投入,力求在創新上超越所有對手。
我們的優勢在於:我們是開創定製 AI 芯片(ASIC on Silicon)商業模式的先行者。我們擁有全球頂級的半導體 IP 組合,例如最先進的 SerDes(串行器/解串器)、頂尖的封裝技術以及卓越的低功耗設計能力。
我們能做的就是持續加大投資,以在競爭中保持領先。目前來看,我們在這方面做得還不錯。
Q:您目前有 3 到 4 家主要的雲服務商客户正在大規模部署 AI 集羣。隨着這些數據中心規模越來越大,通過定製化來追求效率和差異化的需求也越來越強,這正是 XPU 的價值所在。基於這個邏輯,我們為什麼不應該相信,從長遠來看,在您的這幾家核心客户內部,XPU 的市場份額最終會超過通用的 GPU 份額呢?
A: 事實也正朝着這個方向發展。我們看到,這是一個循序漸進、持續多年的演進過程。
我們為現有的每家客户都開發了不止一代、不止一個版本的定製芯片(XPU)。隨着每一代新產品的推出,我們觀察到一個清晰的趨勢:隨着客户對芯片性能的信心增強,以及他們的軟件棧(如庫和模型)在我們的芯片上不斷成熟和穩定,他們會顯著增加 XPU 的採購和部署量。
所以,結論是肯定的。在這些已經成功部署了我們方案的客户內部,他們自家芯片(XPU)在其計算版圖中所佔的比例,毫無疑問會越來越高。我們正親眼見證這一趨勢,這也是我們市場份額能夠持續增長的原因。
<此處結束>
本文的風險披露與聲明:海豚投研免責聲明及一般披露
