--- title: "博通 AVGO(紀要):2027 年 AI 收入超千億,XPU 合作是可持續的" type: "Topics" locale: "zh-HK" url: "https://longbridge.com/zh-HK/topics/39073892.md" description: "以下是海豚君整理的關於博通 Broadcom 2026 財年第一季度財報電話會紀要,財報解讀請移步《博通 AVGO:AI 火力全開,英偉達對頭更颯?》$博通(AVGO.US) 紀要核心要點:1)AI 業務:①AI 收入在一季度同比增長 106%,二季度指引增長將加速至同比 140%,達到 107 億美元;②AI 網絡業務一季度營收同比增長 60%,佔當期 AI 收入的三分之一;二季度預計將大幅加速..." datetime: "2026-03-05T04:09:34.000Z" locales: - [en](https://longbridge.com/en/topics/39073892.md) - [zh-CN](https://longbridge.com/zh-CN/topics/39073892.md) - [zh-HK](https://longbridge.com/zh-HK/topics/39073892.md) author: "[海豚研究](https://longbridge.com/zh-HK/news/dolphin.md)" --- > 支持的語言: [English](https://longbridge.com/en/topics/39073892.md) | [简体中文](https://longbridge.com/zh-CN/topics/39073892.md) # 博通 AVGO(紀要):2027 年 AI 收入超千億,XPU 合作是可持續的 以下是海豚君整理的關於博通 Broadcom 2026 財年第一季度財報電話會紀要,財報解讀請移步《[博通 AVGO:AI 火力全開,英偉達對頭更颯?](https://longbridge.cn/zh-CN/topics/39070789?channel=SH000001&invite-code=294324&app_id=longbridge&utm_source=longbridge_app_share&locale=zh-CN&share_track_id=43f2e283-cbdf-44b1-bf00-3efddf5e0ed0)》 $博通(AVGO.US) **紀要核心要點:** **1)AI 業務**:**①AI 收入**在一季度同比增長 106%,二季度指引增長將加速至同比 140%,達到 107 億美元;**②AI 網絡業務**一季度營收同比增長 60%,佔當期 AI 收入的三分之一;二季度預計將大幅加速,增長至佔 AI 收入的 40%(對應 42 億美元)。**長期看,AI 網絡組件佔 AI 收入的比例大概會在 33% 到 40% 之間**。 **2027 年 AI 指引:僅來自芯片的 AI 收入(含 ASIC 以及網絡交換芯片等)將在 2027 年超過 1,000 億美元。** **2)AI 客户進展:目前共有 6 家深度戰略合作的客户**,新增了第 6 家客户 OpenAI(從框架協議成為實質性客户)。 **①谷歌:2026 年繼續保持增長,第七代 Ironwood TPU 需求強勁**。預計 2027 年及以後,下一代 TPU 需求將更為強勁。 **②Anthropic:2026 年的 1 吉瓦 TPU**計算部署開局良好,預計**2027 年需求將激增至超過 3 吉瓦**的計算能力。 **③Meta:**其定製加速器 MTIA 的路線圖健在且良好,目前正在出貨。**下一代 XPU 預計將在 2027 年及以後擴展到多吉瓦級**別。 **④第四、第五家客户**:2026 年出貨強勁,預計 2027 年將翻倍以上增長。 **⑤OpenAI (第六家客户)**:**預計將在 2027 年大規模部署其第一代 XPU,計算能力超過 1 吉瓦**。 **3)如何看待客户自研**:任何超大規模廠商或 LLM 開發者試圖完全自研,將面臨巨大挑戰,這需要**芯片設計團隊、真正尖端 SERDES、先進的封裝以及聯網集羣的能力**。在未來很多年內,都不會看到自研帶來的競爭。雖然競爭最終會到來,但還有很長的路要走。 **4)如何看待預填充和解碼的趨勢:XPU 最終將成為更主流的選擇**,因為它提供了靈活性,可以設計出針對特定工作負載優化的方案——有些可能更適合預填充,有些更適合訓練後強化學習或測試時擴展; **5)毛利率情況:不會因為 AI 產品出貨增多而受影響**。公司的良率和成本已經達到一個水平——AI 業務的模式將與我們半導體業務其他部分的模式相當一致; **6)市場噪音**:比如客户有其他選擇之類的,但客户回會非常長遠地思考,公司已成為他們戰略路線圖的一部分。**公司認為 XPU 業務對目前擁有的六家客户而言,是一項戰略性的、可持續的佈局**。 **整體來看,公司本次業績是不錯的,尤其是 AI 業務已經開始了加速增長。此前市場對公司的擔心,主要在於客户自研或尋求替代方案、毛利率下滑等方面。公司管理層對此也分別回應了,公司認為毛利率影響不大;客户和公司的合作是可持續性的,“替代方案” 是市場噪音。** **管理層明確給出了 2027 年的 AI 展望,能為公司在短期內注入了直接的信心。然而谷歌 TPUv8 也找了聯發科雙線推進,雖然公司對於 “客户合作” 充滿信心,但畢竟大客户在尋求其他方案的嘗試,依然還會是市場擔心和壓制估值的一個因素。** **一、博通 AVGO 財報核心數據回顧** **業務板塊數據** **半導體解決方案:**營收 125 億美元(佔總營收 65%),同比增長 52%。毛利率約為 68%。 - **AI 半導體(核心增長引擎):**營收 84 億美元,同比增長 106%。 - **非 AI 半導體:**營收 41 億美元,同比持平。 **基礎設施軟件:**營收 68 億美元(佔總營收 35%),同比增長 1%。毛利率為 93%。 VMware 業務表現強勁,**預訂總合同價值超過 92 億美元**,年經常性收入(ARR)同比增長 19%。 **二、博通 AVGO 財報電話會詳細信息** **2.1 高層陳述核心信息** **AI 業務** **強勁勢頭與加速增長:**AI 業務是當前增長的主要驅動力,且勢頭正在加速。**AI 收入在一季度同比增長 106% 並超預期,二季度指引顯示增長將急劇加速至同比 140%。** **AI 網絡業務表現突出 (Networking):一季度 AI 網絡營收同比增長 60%,佔當期 AI 總收入的三分之一**。**二季度預計將大幅加速,增長至佔 AI 總收入的 40%**,表明公司在該領域正獲取市場份額。 **技術領先性:**在集羣擴展(Scale out)方面,首發的 Tomahawk 6 交換機(100 太比特/秒)和 200G SERDES 已獲得超大規模雲廠商的青睞。下一代 Tomahawk 性能將翻倍。 **連接優勢:**在集羣縱向擴展(Scale up)方面,憑藉 200G SERDES 技術,客户可繼續使用成本更低、能耗更少的直連銅纜(DAC),避免了向光纖轉換的高成本和高能耗。這一優勢將延續至 2028 年的 400G SERDES 升級。 **定製化加速器(XPU / ASIC)業務:** **客户羣與規模:目前共有 6 家深度戰略合作的客户**。現有 5 家客户的定製加速器爬坡進展順利,並**新增了第 6 家客户——OpenAI**。 **具體客户進展:** - **谷歌:**2026 年繼續保持增長,第七代 Ironwood TPU 需求強勁。預計 2027 年及以後,下一代 TPU 需求將更為強勁。 - **Anthropic:**2026 年的 1 吉瓦 TPU 計算部署開局良好,預計 2027 年需求將激增至超過 3 吉瓦的計算能力。 - **Meta:**其定製加速器 MTIA 的路線圖健在且良好,目前正在出貨。下一代 XPU 預計將在 2027 年及以後擴展到多吉瓦級別。 - **第四、第五家客户:**2026 年出貨強勁,預計 2027 年將翻倍以上增長。 - **OpenAI (第六家客户):**預計將在 2027 年大規模部署其第一代 XPU,計算能力超過 1 吉瓦。 **合作關係與供給保障:**合作是深度、戰略性和多年期的,博通提供從硅設計、工藝、封裝到網絡的全面技術能力。同時,**通過與客户簽訂多年期供貨協議,並已完全鎖定了 2026 至 2028 年的晶圓、HBM 和基板產能**,確保了供應鏈的持久性。 **FY2026Q2 指引** **合併營收:**預計約為 220 億美元,同比增長 47%,增長加速。 **半導體營收:**預計約為 148 億美元,同比增長 76%。其中,**AI 收入預計將急劇加速至 107 億美元,同比增長約 140%**。 **基礎設施軟件營收:**預計約為 72 億美元,同比增長 9%。 **盈利能力:**預計合併毛利率為 77%(與上季度持平);調整後 EBITDA 約為營收的 68% **2027 年展望:** 鑑於當前的強勁勢頭,管理層對 2027 年的可見性已顯著改善。 **收入目標:**目前已有清晰視線,**預計僅來自芯片的 AI 收入(含 ASIC 以及網絡交換芯片等)將在 2027 年超過 1,000 億美元,且實現該目標所需的供應鏈已得到保障**。 **非 AI 半導體業務** - 一季度營收 41 億美元,同比持平,符合指引。企業網絡、寬帶、服務器與存儲的上漲被無線的季節性下滑抵消。 - 二季度預計營收約為 41 億美元,同比增長 4%。 **6. VMware:管理層強調該業務並未被 AI 顛覆**。相反,VMware Cloud Foundation (VCF) 被視為數據中心中連接 CPU、GPU、存儲和網絡的必要抽象層,它能將物理硬件整合成高性能私有云環境,為企業 AI 工作負載提供硬件本身無法提供的敏捷性。因此,生成式 AI 和代理式 AI 的增長預計將創造對 VMware 更多的需求。 **2.2Q&A 問答** **Q:關於你提到的超過 1000 億美元,想確認一下你指的是 AI 芯片,並且想明確 ASIC 和網絡的區別,以及機架收入如何計算。另外,市場最大的擔憂是,儘管 AI 季度增長約翻倍,但超大規模廠商今年或明後年需要獲得投資回報。你如何看待這種悲觀情緒?你在展望中如何考量這一點?** A:過去幾個月我們持續看到的是,我們的客户僅限於少數幾家廠商,有些是超大規模廠商,有些則不是。他們的共同點是創建 LLM、將其產品化並生成平台,無論是用於企業消費、代碼輔助、代理式 AI,還是我們所知的消費者訂閲。這些少數潛在客户(其中許多現在已是我們的客户)正在創造生成式 AI 或代理式 AI 的平台。 針對這 5、6 家客户,我們看到對訓練計算能力的需求持續走強。但非常有趣且令我們驚訝的是,為了將 LLM 產品化和變現,推理需求正驅動着大量的計算能力。這對我們非常有利,因為這些客户正在創建自己的定製加速器,以及連接這些加速器集羣的網絡架構。因此,我們預計需求將會回升。 關於你的第一部分問題,**我預測 2027 年我們的收入將遠超 1000 億美元,我強調的是這些基本上都基於芯片,無論是 XPU,還是交換機芯片 DSP,我們討論的都是硅的含量**。 **Q:關於超大規模廠商自研 XPU/TPU(即 COT 客户自有工具)的討論很多。博通在 ASIC 領域領導了 30 年,歷史上很少有 COT 計劃成功。考慮到當前一些 COT 項目在性能、芯片設計複雜度、封裝和 IP 上比你們當前世代解決方案差兩倍。** **第一個問題:基於你對明年的可見性,你是否看到 COT 項目從博通手中奪走任何有意義的 TPU/XPU 份額?第二個問題:鑑於博通的 TPU/XPU 在性能、複雜性和 IP 上領先這些 COT 項目 12 到 18 個月,博通團隊將如何進一步擴大這一差距?** A:我特意在開場發言中花時間説明,**任何超大規模廠商或 LLM 開發者試圖完全自給自足地創建 COT 模式,都將面臨巨大挑戰**。 首先是技術。這涉及創建硅芯片的技術,特別是他們需要的 XPU,以優化和運行其 LLM 工作負載的推理。技術來自多個維度:**你需要最優秀的芯片設計團隊、真正尖端 SERDES、非常先進的封裝**,同樣重要的是,你需要知道如何將它們**聯網成集羣**。我們在硅領域已做了 20 多年,在今天的生成式 AI 這一特定領域也是如此。 如果你作為 LLM 廠商試圖自己造芯片,你無法承受只造出 “足夠好” 的芯片。你需要最好的芯片,因為你正在與其他 LLM 廠商競爭。最重要的是,你還在與英偉達競爭,他們每一代都在推出越來越好的芯片。因此,作為試圖在全球建立平台的 LLM 廠商,你必須創造出比英偉達以及其他所有競爭平台廠商更好或不遜色的芯片。為此,你確實需要與擁有最佳技術、IP 和執行力的硅片合作伙伴合作。 謙虛地説,我們目前遙遙領先。**在未來很多年內,我們都不會看到 COT 帶來競爭。競爭最終會到來,但還有很長的路要走**,因為我們看到的這場競賽仍在繼續。我還要補充一點對我們而言特別獨特的地方:當你創造出硅片後,你必須非常快速地讓它在高產量生產中運行起來,即上市時間。我們在這方面非常有經驗。任何人都可以在實驗室裏設計出一塊工作正常的芯片,但你能快速以可負擔的良率生產出 10 萬塊這樣的芯片嗎?我們在世界上看不到太多參與者能做到這一點。 **Q:在開場發言中,你對網絡差異化的強調比過去更多。短期問題是,什麼因素推動 AI 網絡中收入佔比上升到 40%?長期問題是,在超過 1000 億美元的 AI 收入中,這個佔比是否會變化?你預計在該業務中保持怎樣的領導地位(無論是 scale out 還是 scale up)?你在網絡領域的領導地位是否有助於 XPU 業務,因為你可以在計算和網絡兩側進行優化?** A:先回答第一個問題。在網絡領域,特別是隨着新一代 GPU 和 XPU 的出現,我們在帶寬方面運行在 200G SERDES。我們在 9 個多月前推出的 Tomahawk 是市面上唯一的 100T 交換機。我們的客户和超大規模廠商希望為其集羣運行最好的網絡和最大的帶寬,因此我們對這款產品的需求巨大。再加上我們在 scale out 方面運行 1.6T 光收發器所需的 DSP,我們同樣是唯一提供 1.6T DSP 的廠商。這種組合推動我們網絡組件的增長,甚至超過了本就增長顯著的 XPU。這就是你所看到的情況。 不過我認為在某個時點這些會穩定下來。但我們不會放慢步伐,因為正如我所言,2027 年我們將推出下一代 Tomahawk 7,性能翻倍,而且很可能將遙遙領先並率先推出,我們將繼續保持這一勢頭。最終,回答你的問題,是的,**我預計在任何季度,AI 網絡組件佔我們總 AI 收入的比例大概會在 33% 到 40% 之間。** **Q:你如何看待預填充和解碼從 GPU 生態系統中分離出來的趨勢?這對定製芯片需求有何影響?你是否看到 GPU 和客户定製芯片之間的相對結構發生任何潛在變化?** A:我明白你的問題了。你實際上是在問,隨着工作負載開始演變,加速 GPU 或 XPU 的架構將如何演變。這正是我們目前所看到的。通用 GPU 的 “一刀切” 模式只能走到一定程度。例如,儘管你想運行混合專家模型,但 GPU 是為密集矩陣乘法設計的。你可以通過軟件內核來實現,但效果不如在硅片中專門為混合專家工作負載設計的高效。推理也是如此。 這導致我們開始看到 XPU 的設計變得更加針對特定 LLM 客户的特定工作負載進行定製,這種設計開始偏離傳統的標準 GPU 設計。正如我們之前一直指出的,**XPU 最終將成為更主流的選擇,因為它提供了靈活性,可以設計出針對特定工作負載優化的方案——有些可能更適合預填充,有些更適合訓練後強化學習或測試時擴展**。你可以根據你想要的特定 LLM 工作負載來調整你的 XPU。我們在所有 5 家客户中都看到了這樣的路線圖。 **Q:關於毛利率的利弊,隨着開始出貨機架產品,這顯然會拉低混合毛利率。能否給出一些指引?似乎機架的毛利率可能在 45%-50% 左右。我們是否應該預期隨着這些機架開始出貨,毛利率會下降約 500 個基點?另外,是否存在一個毛利率底線,低於它你不願意做更多機架?** A:恐怕你的説法有點幻覺。我們的毛利率穩固地保持在 Kirsten 報告的數字。**我們不會因為 AI 產品出貨增多而受影響。我們的良率和成本已經達到一個水平——AI 業務的模式將與我們半導體業務其他部分的模式相當一致**。進一步研究後,即使對比我上個季度的評論,對我們整體結構的影響實際上根本不會很大。所以不用擔心。 **Q:我想進一步瞭解明年 “遠超 1000 億美元” 的指引。我試圖計算吉瓦數,算下來大概有 8 或 9 吉瓦——Anthropic 3 吉瓦,OpenAI 1 吉瓦,Meta 是多個吉瓦,Google 應該比 Meta 大所以至少 3 吉瓦,再加上其他幾家。我記得每吉瓦的內容價值大概在 200 億美元左右。我的問題是,我對 2027 年計劃出貨的吉瓦數估算是否正確?以及該如何思考出貨時的每吉瓦內容價值,才能得出 “遠超” 1000 億美元?** A:你是對的,用吉瓦而不是美元來看是正確的,因為這是我們銷售芯片的方式。需要意識到,**取決於我們的 6 家 LLM 客户,每吉瓦的美元價值會有所不同,有時差異相當大**。但你説得對,這與你提到的美元數字相去甚遠。**如果看 2027 年的吉瓦數,我們預計將接近 10 吉瓦。** **Q:關於你對四大組件直到 2028 年的供應可見性的評論。第一,你是如何做到的?你可能是第一家覆蓋到 2028 年的公司。第二,在 2027 年 AI 業務驚人增長之後,基於你所看到的供應情況,你是否有足夠的可見性在 2028 年繼續實現顯著增長?** A:是的。我們預計到這種急劇加速的增長。我們較早地鎖定了 T-glass(是集成電路基板和 BT 基板的關鍵材料)以及基板,並與這些關鍵組件的優秀合作伙伴合作。能做到這一點是因為有預判,並且在這些關鍵組件上有很好的合作伙伴。 正如 Hock 所説,我們為 6 家客户構建定製芯片,與他們有非常深入的戰略性多年合作。正是由於這種定製能力,客户會與我們分享他們未來至少 2 到 3 年、有時是 4 年的預期。 正因如此,我們才去確保所有環節的供應。在確保供應的過程中,需要與這些合作伙伴進行投資,有時不僅是開發更多產能,還要開發正確的技術和相應的產能。因此我們必須提前多年鎖定供應。你可能是對的,我們大概是第一家鎖定到 2028 年甚至更遠的公司。 **Q:基於你所看到的供應,2028 年能否增長?** A:是的。 **Q:首先想澄清一下,你們正在做的 Anthropic 項目今年大約是每吉瓦 200 億美元,其中多少是芯片,多少是機架?當你説 1000 億美元是芯片時,芯片和機架規模項目之間是否有區別?另外,你們的 AI 業務正從單一大型客户的獨家合作轉向多個使用多家供應商的客户。在這樣一個分散的客户羣體中,你如何獲得關於你們份額將如何發展的可見性和信心?** A:首先,正如 Charlie 準確指出的,我們只有少數幾家客户——準確説是 6 家客户來驅動我們目前的收入。其次,你需要理解每個客户的投入金額以及他們所做事情的關鍵性。這就是為什麼我提到定製加速器項目。對於我的每一位客户來説,這都是一個戰略舉措。 對他們而言,無論是長期、中期還是短期,這都不是可選項目,而是極具戰略性的。他們不會停止,而且每個客户都非常清楚他們希望如何將這些定製芯片定位在 LLM 發展的軌跡中,以及他們如何為產品化開發推理。 在這方面,我們擁有非常清晰的可見性。至於其他使用 GPU 的業務,這些都是交易性的和可選性的。你説得很對,這看起來似乎很混亂。但請相信,對我們而言並非如此。這些客户非常具有戰略性,目標明確,他們確切知道自己在建設什麼以及每年想要建設多少產能。 他們唯一思考的是你能否做得更快。除此之外,這些都是基於既定路線圖的戰略性和目標性計劃。你在其他組合中看到的任何東西,對這些客户而言純粹是我稱之為機會性的、可選性的。所以這非常清晰。 **Q:關於 Anthropic 項目,機架與芯片的具體區分是什麼?** A:我寧願不回答這個問題。但正如 Kirsten 所説,我們的收入和利潤率狀況良好。 **Q:你提到客户將通過 400G SERDES 使用直連銅纜。你特別指出這一點有什麼原因嗎?尤其是作為共封裝光學(CPO)的領先先驅。** A:我只是在強調一個事實:**在網絡領域,我們的技術擁有非常獨特的定位,可以幫助我們的客户,甚至是那些使用通用 GPU(而不僅僅是 XPU)的客户**。如果你正在嘗試創建 LLM 和建設自己的 AI 數據中心,並且我們在幫助設計架構,你確實希望擁有越來越大的域或集羣,並希望儘可能直接地連接 XPU 到 XPU。**最好的方式就是使用直連銅纜,它具有最低的延遲、最低的功耗和最低的成本。** 因此你希望儘可能長時間地保持這種方式,尤其是在縱向擴展中。在橫向擴展(scale-out)中我們使用光纖,這沒問題。但在機架內的集羣域中進行縱向擴展時,你確實希望儘可能使用直連銅纜。基於博通的技術,特別是在連接 XPU 甚至 GPU 到 GPU 方面,我們可以用銅纜實現,並且我們可以將性能從 100G 推進到 200G,甚至 400G。 我們現在已經有能驅動機架內銅纜傳輸距離的 400G SERDES。我想説的是,即使我們是 CPO 的領先者,你也不需要現在就去追逐 CPO 這個閃亮的新事物。CPO 會在適當的時候到來,不是今年,也許不是明年,但會在它該來的時候到來。 **Q:另外,隨着你增加更多客户,這些與你們一起設計 ASIC 的客户可能會使用縱向擴展(scale-up)以太網。能否談談縱向擴展協議以及你如何看待以太網在這方面的發展?** 關於以太網的問題,自從雲出現以來,以太網在過去二十年已成為雲的事實標準。如果看後端網絡的出現,兩年前業界曾激烈爭論橫向擴展中該用什麼協議來實現所需的延遲和規模。24 個月前業界還不清楚,但我們很清楚答案應該是什麼。由於與合作伙伴的深度合作,他們向整個行業明確表示:無論是 GPU 還是 XPU,橫向擴展的首選是以太網。如今每個人都在討論用以太網進行橫向擴展。 現在輪到縱向擴展,正如三四年前的情況,什麼是正確的答案?我們持續聽到和看到的是,正確的答案是以太網。正如你所知,去年我們已經與多家超大規模廠商和許多半導體同行宣佈,以太網縱向擴展是正確的選擇。我們相信這將會發生。時間會證明,但我們正在進行的許多 XPU 設計都被要求通過以太網進行縱向擴展,我們很樂意實現這一點。 **Q:除 TPU 之外的其他全定製 XPU 項目的進展。展望明年,是否可以認為這些項目主要針對推理應用?另外,能否定性地談談相對於 GPU 的性能或成本優勢,使得這些客户能夠預測如此大的規模?** A:**我們的多數客户從推理開始,因為這是最容易起步的路徑**。當你可以用更高效、更有效的定製推理 XPU 以更低的成本和功耗完成工作時,就不一定需要通用的大規模密集矩陣乘法 GPU。這就是我們發現客户起步的方式。 但現在他們也在進行訓練,許多 XPU 同時用於訓練和推理。順便説一句,它們是可以互換的。我們看到 XPU 兩者都用。同時我們也很快看到,那些在**我談到的進程中更成熟的客户,開始每年同時開發兩款芯片,一款專門用於訓練,一款用於推理**。為什麼?因為我們從這些 LLM 玩家身上看得很清楚:你通過訓練讓 LLM 達到更高智能水平;然後你需要將其產品化,這意味着推理。 當你決定進行推理產品化時,至少需要一年時間,而在此期間別人可能會創造出比你更好的 LLM。因此,當你通過訓練創造下一代超級智能 LLM 時,必須同時在推理方面進行投資,包括芯片和產能。隨着我們發現這 6 家客户在追求更優 LLM 的進程中變得更加成熟,我們的可見性變得越來越好。這就是我們看到的趨勢。雖然尚未發生在全部 6 家客户身上,但我們看到多數正朝着這個方向發展。 **Q:過去一到兩個季度,你們的可見性發生了怎樣的變化,使你們有信心給出更多細節?另外,關於具體客户,你提到 OpenAI 在 2027 年將超過 1 吉瓦,而此前傳聞該交易到 2029 年將達到 10 吉瓦,這意味着 2028 年會出現急劇增長。這是正確的理解方式嗎?這一直是計劃中的嗎?** A:是的。正如你們所見,在這場生成式 AI 的競賽中——或許我不該用 “競賽” 這個詞,我們稱之為少數幾家參與者之間的 “進程”——這是一場競爭。每家都在試圖創造出比其他家更好、更針對特定用途的 LLM。所有這些不僅需要訓練來不斷改進 LLM 模型,還需要推理來實現 LLM 的產品化和變現。 我們與其中一些客户已經合作了超過兩年。隨着他們對與我們合作的 XPU 能夠實現預期目標越來越有信心,我們的可見性也越來越好。當他們在軟件和所需算法方面對我們開發的 XPU 更有信心時,就會意識到這正是他們需要的芯片。情況越來越好。正如之前説的,我們的可見性變得越來越清晰,因為我們最終只需要與這六家客户合作。這六家都極具戰略性地看待 XPU 和 AI。他們不是一代一代地思考,而是考慮多代際、多年的規劃。 **儘管市場上有很多關於可用選項的噪音,但他們非常長遠地思考如何部署與我們共同開發的經驗,如何部署來實現他們想要創造的越來越好的 LLM,**以及更重要的是如何部署來實現變現。因此,我們已成為他們戰略路線圖的一部分。 我們不僅僅是 “我是否該用 GPU、是否該用雲” 這類交易性選項中的一環。不,這遠不止於此。這些客户進行的是長期投資,能成為他們長期路線圖而非交易性路線圖的一部分是極好的。正如我回答先前問題時所説,市場上有大量噪音構成短期交易,而我們的業務和產品則是長期戰略定位。總而言之,我認為我**們的 XPU 業務對我們今天擁有的六家客户而言,是一項戰略性的、可持續的佈局**。 本文的風險披露與聲明:[海豚君免責聲明及一般披露](https://support.longbridge.global/topics/misc/dolphin-disclaimer) ### 相關股票 - [OpenAI (OpenAI.NA)](https://longbridge.com/zh-HK/quote/OpenAI.NA.md) - [Destiny Tech100 (DXYZ.US)](https://longbridge.com/zh-HK/quote/DXYZ.US.md) - [Danaos (DAC.US)](https://longbridge.com/zh-HK/quote/DAC.US.md) - [英偉達 (NVDA.US)](https://longbridge.com/zh-HK/quote/NVDA.US.md) - [谷歌-C (GOOG.US)](https://longbridge.com/zh-HK/quote/GOOG.US.md) - [博通 (AVGO.US)](https://longbridge.com/zh-HK/quote/AVGO.US.md) - [谷歌-A (GOOGL.US)](https://longbridge.com/zh-HK/quote/GOOGL.US.md) - [半導體 3 倍做空 - Direxion (SOXS.US)](https://longbridge.com/zh-HK/quote/SOXS.US.md) - [半導體 3 倍做多 - Direxion (SOXL.US)](https://longbridge.com/zh-HK/quote/SOXL.US.md) - [費城交易所 半導體 ETF - iShares (SOXX.US)](https://longbridge.com/zh-HK/quote/SOXX.US.md) - [半導體 (CP00062.US)](https://longbridge.com/zh-HK/quote/CP00062.US.md) - [聯發科 (MTK.NA)](https://longbridge.com/zh-HK/quote/MTK.NA.md) - [Meta (META.US)](https://longbridge.com/zh-HK/quote/META.US.md) - [Ategrity Specialty Holdings LLC (ASIC.US)](https://longbridge.com/zh-HK/quote/ASIC.US.md) - [2 倍做多英偉達 ETF - GraniteShares (NVDL.US)](https://longbridge.com/zh-HK/quote/NVDL.US.md) - [南方兩倍做多英偉達 (07788.HK)](https://longbridge.com/zh-HK/quote/07788.HK.md) - [南方兩倍做空英偉達 (07388.HK)](https://longbridge.com/zh-HK/quote/07388.HK.md) - [英偉達期權收益策略 ETF - YieldMax (NVDY.US)](https://longbridge.com/zh-HK/quote/NVDY.US.md) - [1 倍做空英偉達 ETF - Direxion (NVDD.US)](https://longbridge.com/zh-HK/quote/NVDD.US.md) - [2 倍做多 NVDA ETF - T-Rex (NVDX.US)](https://longbridge.com/zh-HK/quote/NVDX.US.md)