--- title: "博通 AVGO(纪要):2027 年 AI 收入超千亿,XPU 合作是可持续的" type: "Topics" locale: "zh-CN" url: "https://longbridge.com/zh-CN/topics/39073892.md" description: "以下是海豚君整理的关于博通 Broadcom 2026 财年第一季度财报电话会纪要,财报解读请移步《博通 AVGO:AI 火力全开,英伟达对头更飒?》$博通(AVGO.US) 纪要核心要点:1)AI 业务:①AI 收入在一季度同比增长 106%,二季度指引增长将加速至同比 140%,达到 107 亿美元;②AI 网络业务一季度营收同比增长 60%,占当期 AI 收入的三分之一;二季度预计将大幅加速..." datetime: "2026-03-05T04:09:34.000Z" locales: - [en](https://longbridge.com/en/topics/39073892.md) - [zh-CN](https://longbridge.com/zh-CN/topics/39073892.md) - [zh-HK](https://longbridge.com/zh-HK/topics/39073892.md) author: "[海豚研究](https://longbridge.com/zh-CN/news/dolphin.md)" --- > 支持的语言: [English](https://longbridge.com/en/topics/39073892.md) | [繁體中文](https://longbridge.com/zh-HK/topics/39073892.md) # 博通 AVGO(纪要):2027 年 AI 收入超千亿,XPU 合作是可持续的 以下是海豚君整理的关于博通 Broadcom 2026 财年第一季度财报电话会纪要,财报解读请移步《[博通 AVGO:AI 火力全开,英伟达对头更飒?](https://longbridge.cn/zh-CN/topics/39070789?channel=SH000001&invite-code=294324&app_id=longbridge&utm_source=longbridge_app_share&locale=zh-CN&share_track_id=43f2e283-cbdf-44b1-bf00-3efddf5e0ed0)》 $博通(AVGO.US) **纪要核心要点:** **1)AI 业务**:**①AI 收入**在一季度同比增长 106%,二季度指引增长将加速至同比 140%,达到 107 亿美元;**②AI 网络业务**一季度营收同比增长 60%,占当期 AI 收入的三分之一;二季度预计将大幅加速,增长至占 AI 收入的 40%(对应 42 亿美元)。**长期看,AI 网络组件占 AI 收入的比例大概会在 33% 到 40% 之间**。 **2027 年 AI 指引:仅来自芯片的 AI 收入(含 ASIC 以及网络交换芯片等)将在 2027 年超过 1,000 亿美元。** **2)AI 客户进展:目前共有 6 家深度战略合作的客户**,新增了第 6 家客户 OpenAI(从框架协议成为实质性客户)。 **①谷歌:2026 年继续保持增长,第七代 Ironwood TPU 需求强劲**。预计 2027 年及以后,下一代 TPU 需求将更为强劲。 **②Anthropic:2026 年的 1 吉瓦 TPU**计算部署开局良好,预计**2027 年需求将激增至超过 3 吉瓦**的计算能力。 **③Meta:**其定制加速器 MTIA 的路线图健在且良好,目前正在出货。**下一代 XPU 预计将在 2027 年及以后扩展到多吉瓦级**别。 **④第四、第五家客户**:2026 年出货强劲,预计 2027 年将翻倍以上增长。 **⑤OpenAI (第六家客户)**:**预计将在 2027 年大规模部署其第一代 XPU,计算能力超过 1 吉瓦**。 **3)如何看待客户自研**:任何超大规模厂商或 LLM 开发者试图完全自研,将面临巨大挑战,这需要**芯片设计团队、真正尖端 SERDES、先进的封装以及联网集群的能力**。在未来很多年内,都不会看到自研带来的竞争。虽然竞争最终会到来,但还有很长的路要走。 **4)如何看待预填充和解码的趋势:XPU 最终将成为更主流的选择**,因为它提供了灵活性,可以设计出针对特定工作负载优化的方案——有些可能更适合预填充,有些更适合训练后强化学习或测试时扩展; **5)毛利率情况:不会因为 AI 产品出货增多而受影响**。公司的良率和成本已经达到一个水平——AI 业务的模式将与我们半导体业务其他部分的模式相当一致; **6)市场噪音**:比如客户有其他选择之类的,但客户回会非常长远地思考,公司已成为他们战略路线图的一部分。**公司认为 XPU 业务对目前拥有的六家客户而言,是一项战略性的、可持续的布局**。 **整体来看,公司本次业绩是不错的,尤其是 AI 业务已经开始了加速增长。此前市场对公司的担心,主要在于客户自研或寻求替代方案、毛利率下滑等方面。公司管理层对此也分别回应了,公司认为毛利率影响不大;客户和公司的合作是可持续性的,“替代方案” 是市场噪音。** **管理层明确给出了 2027 年的 AI 展望,能为公司在短期内注入了直接的信心。然而谷歌 TPUv8 也找了联发科双线推进,虽然公司对于 “客户合作” 充满信心,但毕竟大客户在寻求其他方案的尝试,依然还会是市场担心和压制估值的一个因素。** **一、博通 AVGO 财报核心数据回顾** **业务板块数据** **半导体解决方案:**营收 125 亿美元(占总营收 65%),同比增长 52%。毛利率约为 68%。 - **AI 半导体(核心增长引擎):**营收 84 亿美元,同比增长 106%。 - **非 AI 半导体:**营收 41 亿美元,同比持平。 **基础设施软件:**营收 68 亿美元(占总营收 35%),同比增长 1%。毛利率为 93%。 VMware 业务表现强劲,**预订总合同价值超过 92 亿美元**,年经常性收入(ARR)同比增长 19%。 **二、博通 AVGO 财报电话会详细信息** **2.1 高层陈述核心信息** **AI 业务** **强劲势头与加速增长:**AI 业务是当前增长的主要驱动力,且势头正在加速。**AI 收入在一季度同比增长 106% 并超预期,二季度指引显示增长将急剧加速至同比 140%。** **AI 网络业务表现突出 (Networking):一季度 AI 网络营收同比增长 60%,占当期 AI 总收入的三分之一**。**二季度预计将大幅加速,增长至占 AI 总收入的 40%**,表明公司在该领域正获取市场份额。 **技术领先性:**在集群扩展(Scale out)方面,首发的 Tomahawk 6 交换机(100 太比特/秒)和 200G SERDES 已获得超大规模云厂商的青睐。下一代 Tomahawk 性能将翻倍。 **连接优势:**在集群纵向扩展(Scale up)方面,凭借 200G SERDES 技术,客户可继续使用成本更低、能耗更少的直连铜缆(DAC),避免了向光纤转换的高成本和高能耗。这一优势将延续至 2028 年的 400G SERDES 升级。 **定制化加速器(XPU / ASIC)业务:** **客户群与规模:目前共有 6 家深度战略合作的客户**。现有 5 家客户的定制加速器爬坡进展顺利,并**新增了第 6 家客户——OpenAI**。 **具体客户进展:** - **谷歌:**2026 年继续保持增长,第七代 Ironwood TPU 需求强劲。预计 2027 年及以后,下一代 TPU 需求将更为强劲。 - **Anthropic:**2026 年的 1 吉瓦 TPU 计算部署开局良好,预计 2027 年需求将激增至超过 3 吉瓦的计算能力。 - **Meta:**其定制加速器 MTIA 的路线图健在且良好,目前正在出货。下一代 XPU 预计将在 2027 年及以后扩展到多吉瓦级别。 - **第四、第五家客户:**2026 年出货强劲,预计 2027 年将翻倍以上增长。 - **OpenAI (第六家客户):**预计将在 2027 年大规模部署其第一代 XPU,计算能力超过 1 吉瓦。 **合作关系与供给保障:**合作是深度、战略性和多年期的,博通提供从硅设计、工艺、封装到网络的全面技术能力。同时,**通过与客户签订多年期供货协议,并已完全锁定了 2026 至 2028 年的晶圆、HBM 和基板产能**,确保了供应链的持久性。 **FY2026Q2 指引** **合并营收:**预计约为 220 亿美元,同比增长 47%,增长加速。 **半导体营收:**预计约为 148 亿美元,同比增长 76%。其中,**AI 收入预计将急剧加速至 107 亿美元,同比增长约 140%**。 **基础设施软件营收:**预计约为 72 亿美元,同比增长 9%。 **盈利能力:**预计合并毛利率为 77%(与上季度持平);调整后 EBITDA 约为营收的 68% **2027 年展望:** 鉴于当前的强劲势头,管理层对 2027 年的可见性已显著改善。 **收入目标:**目前已有清晰视线,**预计仅来自芯片的 AI 收入(含 ASIC 以及网络交换芯片等)将在 2027 年超过 1,000 亿美元,且实现该目标所需的供应链已得到保障**。 **非 AI 半导体业务** - 一季度营收 41 亿美元,同比持平,符合指引。企业网络、宽带、服务器与存储的上涨被无线的季节性下滑抵消。 - 二季度预计营收约为 41 亿美元,同比增长 4%。 **6. VMware:管理层强调该业务并未被 AI 颠覆**。相反,VMware Cloud Foundation (VCF) 被视为数据中心中连接 CPU、GPU、存储和网络的必要抽象层,它能将物理硬件整合成高性能私有云环境,为企业 AI 工作负载提供硬件本身无法提供的敏捷性。因此,生成式 AI 和代理式 AI 的增长预计将创造对 VMware 更多的需求。 **2.2Q&A 问答** **Q:关于你提到的超过 1000 亿美元,想确认一下你指的是 AI 芯片,并且想明确 ASIC 和网络的区别,以及机架收入如何计算。另外,市场最大的担忧是,尽管 AI 季度增长约翻倍,但超大规模厂商今年或明后年需要获得投资回报。你如何看待这种悲观情绪?你在展望中如何考量这一点?** A:过去几个月我们持续看到的是,我们的客户仅限于少数几家厂商,有些是超大规模厂商,有些则不是。他们的共同点是创建 LLM、将其产品化并生成平台,无论是用于企业消费、代码辅助、代理式 AI,还是我们所知的消费者订阅。这些少数潜在客户(其中许多现在已是我们的客户)正在创造生成式 AI 或代理式 AI 的平台。 针对这 5、6 家客户,我们看到对训练计算能力的需求持续走强。但非常有趣且令我们惊讶的是,为了将 LLM 产品化和变现,推理需求正驱动着大量的计算能力。这对我们非常有利,因为这些客户正在创建自己的定制加速器,以及连接这些加速器集群的网络架构。因此,我们预计需求将会回升。 关于你的第一部分问题,**我预测 2027 年我们的收入将远超 1000 亿美元,我强调的是这些基本上都基于芯片,无论是 XPU,还是交换机芯片 DSP,我们讨论的都是硅的含量**。 **Q:关于超大规模厂商自研 XPU/TPU(即 COT 客户自有工具)的讨论很多。博通在 ASIC 领域领导了 30 年,历史上很少有 COT 计划成功。考虑到当前一些 COT 项目在性能、芯片设计复杂度、封装和 IP 上比你们当前世代解决方案差两倍。** **第一个问题:基于你对明年的可见性,你是否看到 COT 项目从博通手中夺走任何有意义的 TPU/XPU 份额?第二个问题:鉴于博通的 TPU/XPU 在性能、复杂性和 IP 上领先这些 COT 项目 12 到 18 个月,博通团队将如何进一步扩大这一差距?** A:我特意在开场发言中花时间说明,**任何超大规模厂商或 LLM 开发者试图完全自给自足地创建 COT 模式,都将面临巨大挑战**。 首先是技术。这涉及创建硅芯片的技术,特别是他们需要的 XPU,以优化和运行其 LLM 工作负载的推理。技术来自多个维度:**你需要最优秀的芯片设计团队、真正尖端 SERDES、非常先进的封装**,同样重要的是,你需要知道如何将它们**联网成集群**。我们在硅领域已做了 20 多年,在今天的生成式 AI 这一特定领域也是如此。 如果你作为 LLM 厂商试图自己造芯片,你无法承受只造出 “足够好” 的芯片。你需要最好的芯片,因为你正在与其他 LLM 厂商竞争。最重要的是,你还在与英伟达竞争,他们每一代都在推出越来越好的芯片。因此,作为试图在全球建立平台的 LLM 厂商,你必须创造出比英伟达以及其他所有竞争平台厂商更好或不逊色的芯片。为此,你确实需要与拥有最佳技术、IP 和执行力的硅片合作伙伴合作。 谦虚地说,我们目前遥遥领先。**在未来很多年内,我们都不会看到 COT 带来竞争。竞争最终会到来,但还有很长的路要走**,因为我们看到的这场竞赛仍在继续。我还要补充一点对我们而言特别独特的地方:当你创造出硅片后,你必须非常快速地让它在高产量生产中运行起来,即上市时间。我们在这方面非常有经验。任何人都可以在实验室里设计出一块工作正常的芯片,但你能快速以可负担的良率生产出 10 万块这样的芯片吗?我们在世界上看不到太多参与者能做到这一点。 **Q:在开场发言中,你对网络差异化的强调比过去更多。短期问题是,什么因素推动 AI 网络中收入占比上升到 40%?长期问题是,在超过 1000 亿美元的 AI 收入中,这个占比是否会变化?你预计在该业务中保持怎样的领导地位(无论是 scale out 还是 scale up)?你在网络领域的领导地位是否有助于 XPU 业务,因为你可以在计算和网络两侧进行优化?** A:先回答第一个问题。在网络领域,特别是随着新一代 GPU 和 XPU 的出现,我们在带宽方面运行在 200G SERDES。我们在 9 个多月前推出的 Tomahawk 是市面上唯一的 100T 交换机。我们的客户和超大规模厂商希望为其集群运行最好的网络和最大的带宽,因此我们对这款产品的需求巨大。再加上我们在 scale out 方面运行 1.6T 光收发器所需的 DSP,我们同样是唯一提供 1.6T DSP 的厂商。这种组合推动我们网络组件的增长,甚至超过了本就增长显著的 XPU。这就是你所看到的情况。 不过我认为在某个时点这些会稳定下来。但我们不会放慢步伐,因为正如我所言,2027 年我们将推出下一代 Tomahawk 7,性能翻倍,而且很可能将遥遥领先并率先推出,我们将继续保持这一势头。最终,回答你的问题,是的,**我预计在任何季度,AI 网络组件占我们总 AI 收入的比例大概会在 33% 到 40% 之间。** **Q:你如何看待预填充和解码从 GPU 生态系统中分离出来的趋势?这对定制芯片需求有何影响?你是否看到 GPU 和客户定制芯片之间的相对结构发生任何潜在变化?** A:我明白你的问题了。你实际上是在问,随着工作负载开始演变,加速 GPU 或 XPU 的架构将如何演变。这正是我们目前所看到的。通用 GPU 的 “一刀切” 模式只能走到一定程度。例如,尽管你想运行混合专家模型,但 GPU 是为密集矩阵乘法设计的。你可以通过软件内核来实现,但效果不如在硅片中专门为混合专家工作负载设计的高效。推理也是如此。 这导致我们开始看到 XPU 的设计变得更加针对特定 LLM 客户的特定工作负载进行定制,这种设计开始偏离传统的标准 GPU 设计。正如我们之前一直指出的,**XPU 最终将成为更主流的选择,因为它提供了灵活性,可以设计出针对特定工作负载优化的方案——有些可能更适合预填充,有些更适合训练后强化学习或测试时扩展**。你可以根据你想要的特定 LLM 工作负载来调整你的 XPU。我们在所有 5 家客户中都看到了这样的路线图。 **Q:关于毛利率的利弊,随着开始出货机架产品,这显然会拉低混合毛利率。能否给出一些指引?似乎机架的毛利率可能在 45%-50% 左右。我们是否应该预期随着这些机架开始出货,毛利率会下降约 500 个基点?另外,是否存在一个毛利率底线,低于它你不愿意做更多机架?** A:恐怕你的说法有点幻觉。我们的毛利率稳固地保持在 Kirsten 报告的数字。**我们不会因为 AI 产品出货增多而受影响。我们的良率和成本已经达到一个水平——AI 业务的模式将与我们半导体业务其他部分的模式相当一致**。进一步研究后,即使对比我上个季度的评论,对我们整体结构的影响实际上根本不会很大。所以不用担心。 **Q:我想进一步了解明年 “远超 1000 亿美元” 的指引。我试图计算吉瓦数,算下来大概有 8 或 9 吉瓦——Anthropic 3 吉瓦,OpenAI 1 吉瓦,Meta 是多个吉瓦,Google 应该比 Meta 大所以至少 3 吉瓦,再加上其他几家。我记得每吉瓦的内容价值大概在 200 亿美元左右。我的问题是,我对 2027 年计划出货的吉瓦数估算是否正确?以及该如何思考出货时的每吉瓦内容价值,才能得出 “远超” 1000 亿美元?** A:你是对的,用吉瓦而不是美元来看是正确的,因为这是我们销售芯片的方式。需要意识到,**取决于我们的 6 家 LLM 客户,每吉瓦的美元价值会有所不同,有时差异相当大**。但你说得对,这与你提到的美元数字相去甚远。**如果看 2027 年的吉瓦数,我们预计将接近 10 吉瓦。** **Q:关于你对四大组件直到 2028 年的供应可见性的评论。第一,你是如何做到的?你可能是第一家覆盖到 2028 年的公司。第二,在 2027 年 AI 业务惊人增长之后,基于你所看到的供应情况,你是否有足够的可见性在 2028 年继续实现显著增长?** A:是的。我们预计到这种急剧加速的增长。我们较早地锁定了 T-glass(是集成电路基板和 BT 基板的关键材料)以及基板,并与这些关键组件的优秀合作伙伴合作。能做到这一点是因为有预判,并且在这些关键组件上有很好的合作伙伴。 正如 Hock 所说,我们为 6 家客户构建定制芯片,与他们有非常深入的战略性多年合作。正是由于这种定制能力,客户会与我们分享他们未来至少 2 到 3 年、有时是 4 年的预期。 正因如此,我们才去确保所有环节的供应。在确保供应的过程中,需要与这些合作伙伴进行投资,有时不仅是开发更多产能,还要开发正确的技术和相应的产能。因此我们必须提前多年锁定供应。你可能是对的,我们大概是第一家锁定到 2028 年甚至更远的公司。 **Q:基于你所看到的供应,2028 年能否增长?** A:是的。 **Q:首先想澄清一下,你们正在做的 Anthropic 项目今年大约是每吉瓦 200 亿美元,其中多少是芯片,多少是机架?当你说 1000 亿美元是芯片时,芯片和机架规模项目之间是否有区别?另外,你们的 AI 业务正从单一大型客户的独家合作转向多个使用多家供应商的客户。在这样一个分散的客户群体中,你如何获得关于你们份额将如何发展的可见性和信心?** A:首先,正如 Charlie 准确指出的,我们只有少数几家客户——准确说是 6 家客户来驱动我们目前的收入。其次,你需要理解每个客户的投入金额以及他们所做事情的关键性。这就是为什么我提到定制加速器项目。对于我的每一位客户来说,这都是一个战略举措。 对他们而言,无论是长期、中期还是短期,这都不是可选项目,而是极具战略性的。他们不会停止,而且每个客户都非常清楚他们希望如何将这些定制芯片定位在 LLM 发展的轨迹中,以及他们如何为产品化开发推理。 在这方面,我们拥有非常清晰的可见性。至于其他使用 GPU 的业务,这些都是交易性的和可选性的。你说得很对,这看起来似乎很混乱。但请相信,对我们而言并非如此。这些客户非常具有战略性,目标明确,他们确切知道自己在建设什么以及每年想要建设多少产能。 他们唯一思考的是你能否做得更快。除此之外,这些都是基于既定路线图的战略性和目标性计划。你在其他组合中看到的任何东西,对这些客户而言纯粹是我称之为机会性的、可选性的。所以这非常清晰。 **Q:关于 Anthropic 项目,机架与芯片的具体区分是什么?** A:我宁愿不回答这个问题。但正如 Kirsten 所说,我们的收入和利润率状况良好。 **Q:你提到客户将通过 400G SERDES 使用直连铜缆。你特别指出这一点有什么原因吗?尤其是作为共封装光学(CPO)的领先先驱。** A:我只是在强调一个事实:**在网络领域,我们的技术拥有非常独特的定位,可以帮助我们的客户,甚至是那些使用通用 GPU(而不仅仅是 XPU)的客户**。如果你正在尝试创建 LLM 和建设自己的 AI 数据中心,并且我们在帮助设计架构,你确实希望拥有越来越大的域或集群,并希望尽可能直接地连接 XPU 到 XPU。**最好的方式就是使用直连铜缆,它具有最低的延迟、最低的功耗和最低的成本。** 因此你希望尽可能长时间地保持这种方式,尤其是在纵向扩展中。在横向扩展(scale-out)中我们使用光纤,这没问题。但在机架内的集群域中进行纵向扩展时,你确实希望尽可能使用直连铜缆。基于博通的技术,特别是在连接 XPU 甚至 GPU 到 GPU 方面,我们可以用铜缆实现,并且我们可以将性能从 100G 推进到 200G,甚至 400G。 我们现在已经有能驱动机架内铜缆传输距离的 400G SERDES。我想说的是,即使我们是 CPO 的领先者,你也不需要现在就去追逐 CPO 这个闪亮的新事物。CPO 会在适当的时候到来,不是今年,也许不是明年,但会在它该来的时候到来。 **Q:另外,随着你增加更多客户,这些与你们一起设计 ASIC 的客户可能会使用纵向扩展(scale-up)以太网。能否谈谈纵向扩展协议以及你如何看待以太网在这方面的发展?** 关于以太网的问题,自从云出现以来,以太网在过去二十年已成为云的事实标准。如果看后端网络的出现,两年前业界曾激烈争论横向扩展中该用什么协议来实现所需的延迟和规模。24 个月前业界还不清楚,但我们很清楚答案应该是什么。由于与合作伙伴的深度合作,他们向整个行业明确表示:无论是 GPU 还是 XPU,横向扩展的首选是以太网。如今每个人都在讨论用以太网进行横向扩展。 现在轮到纵向扩展,正如三四年前的情况,什么是正确的答案?我们持续听到和看到的是,正确的答案是以太网。正如你所知,去年我们已经与多家超大规模厂商和许多半导体同行宣布,以太网纵向扩展是正确的选择。我们相信这将会发生。时间会证明,但我们正在进行的许多 XPU 设计都被要求通过以太网进行纵向扩展,我们很乐意实现这一点。 **Q:除 TPU 之外的其他全定制 XPU 项目的进展。展望明年,是否可以认为这些项目主要针对推理应用?另外,能否定性地谈谈相对于 GPU 的性能或成本优势,使得这些客户能够预测如此大的规模?** A:**我们的多数客户从推理开始,因为这是最容易起步的路径**。当你可以用更高效、更有效的定制推理 XPU 以更低的成本和功耗完成工作时,就不一定需要通用的大规模密集矩阵乘法 GPU。这就是我们发现客户起步的方式。 但现在他们也在进行训练,许多 XPU 同时用于训练和推理。顺便说一句,它们是可以互换的。我们看到 XPU 两者都用。同时我们也很快看到,那些在**我谈到的进程中更成熟的客户,开始每年同时开发两款芯片,一款专门用于训练,一款用于推理**。为什么?因为我们从这些 LLM 玩家身上看得很清楚:你通过训练让 LLM 达到更高智能水平;然后你需要将其产品化,这意味着推理。 当你决定进行推理产品化时,至少需要一年时间,而在此期间别人可能会创造出比你更好的 LLM。因此,当你通过训练创造下一代超级智能 LLM 时,必须同时在推理方面进行投资,包括芯片和产能。随着我们发现这 6 家客户在追求更优 LLM 的进程中变得更加成熟,我们的可见性变得越来越好。这就是我们看到的趋势。虽然尚未发生在全部 6 家客户身上,但我们看到多数正朝着这个方向发展。 **Q:过去一到两个季度,你们的可见性发生了怎样的变化,使你们有信心给出更多细节?另外,关于具体客户,你提到 OpenAI 在 2027 年将超过 1 吉瓦,而此前传闻该交易到 2029 年将达到 10 吉瓦,这意味着 2028 年会出现急剧增长。这是正确的理解方式吗?这一直是计划中的吗?** A:是的。正如你们所见,在这场生成式 AI 的竞赛中——或许我不该用 “竞赛” 这个词,我们称之为少数几家参与者之间的 “进程”——这是一场竞争。每家都在试图创造出比其他家更好、更针对特定用途的 LLM。所有这些不仅需要训练来不断改进 LLM 模型,还需要推理来实现 LLM 的产品化和变现。 我们与其中一些客户已经合作了超过两年。随着他们对与我们合作的 XPU 能够实现预期目标越来越有信心,我们的可见性也越来越好。当他们在软件和所需算法方面对我们开发的 XPU 更有信心时,就会意识到这正是他们需要的芯片。情况越来越好。正如之前说的,我们的可见性变得越来越清晰,因为我们最终只需要与这六家客户合作。这六家都极具战略性地看待 XPU 和 AI。他们不是一代一代地思考,而是考虑多代际、多年的规划。 **尽管市场上有很多关于可用选项的噪音,但他们非常长远地思考如何部署与我们共同开发的经验,如何部署来实现他们想要创造的越来越好的 LLM,**以及更重要的是如何部署来实现变现。因此,我们已成为他们战略路线图的一部分。 我们不仅仅是 “我是否该用 GPU、是否该用云” 这类交易性选项中的一环。不,这远不止于此。这些客户进行的是长期投资,能成为他们长期路线图而非交易性路线图的一部分是极好的。正如我回答先前问题时所说,市场上有大量噪音构成短期交易,而我们的业务和产品则是长期战略定位。总而言之,我认为我**们的 XPU 业务对我们今天拥有的六家客户而言,是一项战略性的、可持续的布局**。 本文的风险披露与声明:[海豚君免责声明及一般披露](https://support.longbridge.global/topics/misc/dolphin-disclaimer) ### 相关股票 - [OpenAI (OpenAI.NA)](https://longbridge.com/zh-CN/quote/OpenAI.NA.md) - [Destiny Tech100 (DXYZ.US)](https://longbridge.com/zh-CN/quote/DXYZ.US.md) - [Danaos (DAC.US)](https://longbridge.com/zh-CN/quote/DAC.US.md) - [英伟达 (NVDA.US)](https://longbridge.com/zh-CN/quote/NVDA.US.md) - [谷歌-C (GOOG.US)](https://longbridge.com/zh-CN/quote/GOOG.US.md) - [博通 (AVGO.US)](https://longbridge.com/zh-CN/quote/AVGO.US.md) - [谷歌-A (GOOGL.US)](https://longbridge.com/zh-CN/quote/GOOGL.US.md) - [半导体 3 倍做空 - Direxion (SOXS.US)](https://longbridge.com/zh-CN/quote/SOXS.US.md) - [半导体 3 倍做多 - Direxion (SOXL.US)](https://longbridge.com/zh-CN/quote/SOXL.US.md) - [费城交易所 半导体 ETF - iShares (SOXX.US)](https://longbridge.com/zh-CN/quote/SOXX.US.md) - [半导体 (CP00062.US)](https://longbridge.com/zh-CN/quote/CP00062.US.md) - [联发科 (MTK.NA)](https://longbridge.com/zh-CN/quote/MTK.NA.md) - [Meta (META.US)](https://longbridge.com/zh-CN/quote/META.US.md) - [Ategrity Specialty Holdings LLC (ASIC.US)](https://longbridge.com/zh-CN/quote/ASIC.US.md) - [2 倍做多英伟达 ETF - GraniteShares (NVDL.US)](https://longbridge.com/zh-CN/quote/NVDL.US.md) - [南方两倍做多英伟达 (07788.HK)](https://longbridge.com/zh-CN/quote/07788.HK.md) - [南方两倍做空英伟达 (07388.HK)](https://longbridge.com/zh-CN/quote/07388.HK.md) - [英伟达期权收益策略 ETF - YieldMax (NVDY.US)](https://longbridge.com/zh-CN/quote/NVDY.US.md) - [1 倍做空英伟达 ETF - Direxion (NVDD.US)](https://longbridge.com/zh-CN/quote/NVDD.US.md) - [2 倍做多 NVDA ETF - T-Rex (NVDX.US)](https://longbridge.com/zh-CN/quote/NVDX.US.md)