
“AI 闭环” 假期刷屏!一文读懂北美数据中心供应链

在这场由 AI 点燃的、前所未有的淘金热中,那些掌握着核心散热与供电技术、能够为海量算力 “降温” 和 “喂电” 的供应链巨头,无疑将成为真正的赢家。
人工智能竞赛的本质,是一场关于物理基础设施的竞赛。屏幕上每一次流畅的 AI 交互背后,都是数据中心内数以万计的服务器在高速运转,而支撑这一切的,是一个正在以惊人速度膨胀的万亿级实体产业——数据中心。
据美国银行(BofA)测算,全球数据中心资本支出在 2024 年已突破 4000 亿美元,2025 年将达到 5060 亿美元,其中 IT 设备支出 4180 亿,基础设施支出 880 亿。在 AI 需求的驱动下,该市场预计在 2024 至 2028 年间,将以高达 23% 的惊人年复合增长率(CAGR)扩张,最终在 2028 年形成一个超过 9000 亿美元的庞大市场。

那么,在这场前所未有的建设热潮中,真正的价值链分布在何处?谁将成为最大的受益者?
本文将深入剖析这场由 AI 引爆的数据中心市场全景,揭示技术变革的核心逻辑,并系统性拆解其复杂的供应链,为您完整呈现一幅北美数据中心供应链的全景图,并找出在这场淘金热中真正的 “卖铲人”。

一、5000 亿美元市场全景
数据中心市场的增长,已不再由传统企业自建自用驱动。自 2017 年以来,云服务商和托管公司的总容量首次超越企业自建数据中心后,几乎所有的新增容量都来自于两类玩家:以亚马逊 AWS、微软 Azure 为代表的 “超大规模”(Hyperscale)云服务商,以及为它们或其它客户提供租赁服务的 “托管”(Colocation)公司。

从全球产能分布来看,美洲地区占据了全球过半的电力容量,其中,美国东海岸的北弗吉尼亚州,以其近 15% 的全球超大规模数据中心容量,成为无可争议的全球最大单一聚集地。紧随其后的是咱们中国的北京,约占 7%。


驱动资本持续涌入的,是数据中心作为一种高价值基础设施资产清晰且可观的回报模型。以一个典型的批发托管(Wholesale Colocation)新建项目为例,其单位投资经济学如下:
-
初始投资: 建设一个 1 兆瓦(MW)容量的数据中心,土地、电力接入等前期成本约为 200 万美元,而包含建筑、机电、散热等设施在内的 “动力外壳”(powered shell)成本约为 1100 万美元。合计每兆瓦的总投资约为 1300 万美元。
-
收入与盈利: 每兆瓦每年可产生 200 万至 300 万美元的租金收入。在扣除电力(美国工业用电均价约每千瓦时 0.08 美元)、人力(每兆瓦约 2 名全职员工)、财产税(约物业价值的 1%)等运营成本后,其EBITDA(税息折旧及摊销前利润)利润率通常能达到 40% 至 50% 的稳健水平。
-
投资回报: 在一个典型的 20 年持有期、并结合项目融资(假设 46% 的贷款价值比,6% 的债务利率,10% 的股权成本)的模型中,该项目的内部收益率(IRR)可达 11.0%。这对于寻求长期稳定现金流的基础设施投资者而言,极具吸引力。
正是这种高确定性的商业模式,构成了整个数据中心产业扩张的金融基石。

二、技术奇点来临:从芯片到机架的 “密度革命”
数据中心内部所有基础设施变革的起点,都源自 AI 芯片。其核心演进逻辑可以被精确地概括为一场 “密度革命”。
革命的根源,是单颗芯片功耗的指数级飙升。从英伟达的第一代 Volta 架构到如今的 Blackwell 架构,单颗 GPU 的功耗在短短数年间增长了 4 倍。这背后的物理定律简单而残酷:在芯片上集成更多晶体管、并以更高时钟频率运行,必然导致功耗的线性增长。

直接的连锁反应,是服务器机架功率密度的急剧攀升。在 AI 训练集群中,网络延迟是性能的致命瓶颈。为最大限度降低 GPU 之间的数据传输延迟,工程师的解决方案是将尽可能多的 GPU 紧密集成在同一个服务器机架内,通过高速内部互联(如 NVLink)进行通信。这一架构优化的必然结果,就是机架功率密度的爆炸式增长。在 2021 年,数据中心的平均机架密度尚不足 10 千瓦(kW);如今,一个标准的英伟达 Hopper(H200)机架功耗已达 35kW,最新的 Blackwell(B200)机架更是高达 120kW。根据英伟达公布的路线图,其计划于 2027 年下半年推出的 Rubin Ultra 平台,单机架功耗将达到前所未有的 600kW。AMD 的 MI350 和未来的 MI400,以及英特尔的 Gaudi 系列,也遵循着同样的轨迹。

与此同时,全球存量数据中心基础设施建设却严重滞后。根据权威机构 Uptime Institute 在 2024 年的调查,全球仅有 5% 的现有数据中心,其平均机架密度能够超过 30kW。这意味着,95% 的数据中心甚至无法支持英伟达上一代的 Hopper 芯片,更不用说功耗更高的 Blackwell。因此,AI 算力的部署,必须依赖于一场对现有数据中心的大规模升级改造和海量的新建。

值得强调的是,这并非 GPU 的专属路径。包括谷歌(TPU)、微软(Maia 100)和亚马逊(Trainium)在内的云巨头,其自研的 ASIC 芯片尽管在特定任务上能效更高,但为了追求极致性能,同样纷纷宣布其最新一代产品必须采用液冷散热。这从另一个角度也印证了,高密度计算带来的散热挑战,可能是整个 AI 硬件行业不可逆转的共同趋势。
三、重塑基础设施:一场关于 “水与电” 的变革
由芯片引爆的 “密度革命”,正自下而上地对数据中心的基础设施发起冲击,其核心战场集中在两个领域:散热系统(水) 与 供电系统(电)。
(1)第一战场:散热——从风冷到液冷的迁徙
传统数据中心长期依赖空气进行冷却。然而,即便是设计最优化的风冷系统,其散热能力的物理极限也仅在每机架 60-70kW 左右。面对动辄上百千瓦的 AI 机架,风冷已无能为力。液冷,这一曾在大型机时代短暂出现的技术,正以无可争议的姿态回归主流。

在众多液冷技术路线中,行业目前的主流选择是 “芯片级直接液冷”(Direct-to-Chip, D2C)。
该技术通过一个内含微通道的金属 “冷板”(cold plate)直接覆盖在 GPU、CPU 等主要发热芯片上,内部流动的冷却液(通常是水和乙二醇的混合物)高效地带走热量。其系统核心设备是 “冷却液分配单元”(Coolant Distribution Unit, CDU),负责驱动冷却液在服务器内部的 “二级回路” 和数据中心外部的 “一级回路” 之间进行热交换和循环。

CDU 市场虽然在 2024 年规模仅约 12 亿美元,但正经历爆发式增长。
目前市场上有超过 30 家供应商。然而,数据中心运营商对 “正常运行时间”(Uptime)的极致追求,决定了他们极度保守,倾向于选择技术成熟、服务可靠的供应商。这使得拥有成熟产品线和全球服务网络的老牌厂商具备天然护城河。维谛(Vertiv,通过 2023 年收购 CoolTera 增强了实力)、施耐德电气(Schneider Electric,通过 2025 年 2 月收购 Motivair 布局)、台达电子(Delta Electronics) 和 nVent 等被视为该领域的第一梯队领导者。

(2)第二战场:供电——从交流到高压直流的架构革命
传统数据中心的供电链路漫长且存在能量损耗:来自电网的中高压交流电(AC),经过变压器降压、开关柜分配,进入不间断电源(UPS)进行 “AC-DC-AC” 的双重转换以备用,再通过配电单元(PDU)或母线槽送至机架,最终在服务器内部由电源供应单元(PSU)完成最后的 “AC-DC” 转换。
随着 AI 机架的总功率向 100kW 以上迈进,传统低压交流供电架构的弊端尽显:巨大的电流导致需要极粗的铜缆,这不仅成本高昂,还占据了宝贵的机架空间并影响散热。为此,一场向 “高压直流”(High Voltage DC)的架构革命已然开启。
-
由微软、Meta 等公司在 “开放计算项目”(Open Compute Project)中率先提出的400V 直流方案。
-
英伟达为支持未来百万瓦级服务器机架而宣布的800V 直流方案,计划于 2027 年部署。
高压直流的核心优势在于,根据物理原理(功率=电压×电流),在传输相同功率的情况下,将电压提高一个数量级,电流便可降低一个数量级。这意味着可以用直径更细、成本更低的线缆完成输电,从而大幅减少机架内昂贵且笨重的铜材使用量。据施耐德电气测算,400V 系统相比传统的 208V 交流系统可减少 52% 的铜线重量。
这一变革将深刻重塑供电系统:
-
UPS 简化: 在直流架构下,UPS 不再需要将电池的直流电逆变为交流电的 “逆变器” 环节,理论上可降低 10-20% 的成本(尽管初期可能被高压安全设备成本抵消)。
-
电源移出服务器: 原本位于服务器内部、占用大量空间的 PSU,将被移出服务器机架,形成一个独立的“电源边车”(power side car)形态,为计算单元腾出更多空间。
英伟达已明确表示,其 800V 直流架构将与维谛(Vertiv)、伊顿(Eaton) 等行业领导者合作开发,这再次印证了 incumbents(在位者)在行业标准变革中依然占据核心地位。

四、供应链核心环节拆解:谁是淘金热中的 “卖铲人”?
AI 的崛起,正显著推高数据中心的单位建设成本。一个传统数据中心的总造价(All-in Cost)约为每兆瓦 3900 万美元,而一个采用下一代 AI 架构(假设为芯片级液冷和高压直流)的数据中心,其造价将跃升 33%,达到每兆瓦 5200 万美元。增长的部分主要来自更昂贵的 AI 服务器,但基础设施的升级同样贡献了显著的成本增量。
在这条庞大而精密的供应链上,各个环节的 “卖铲人” 正分享着时代的红利:
-
散热系统(Thermal): 这是一个约100 亿美元的市场(2024 年),维谛(Vertiv) 是公认的市场份额领导者。其核心产品包括冷水机组(Chillers)、冷却塔(Cooling Towers)、机房精密空调(CRAH)等。江森自控(Johnson Controls,通过收购 Silent-Aire)、开利(Carrier)、特灵(Trane)等传统 HVAC 巨头也是重要参与者。

-
供电系统(Electrical): 这是一个约180 亿美元的市场(2024 年),施耐德电气(Schneider Electric) 在此占据领先地位。其产品线覆盖了不间断电源(UPS,新装市场约 70 亿美元)、开关设备(Switchgear,市场约 50-55 亿美元)、母线槽等配电设备(市场约 42-47 亿美元)。伊顿(Eaton)、ABB、西门子(Siemens)等工业电气巨头同样是该领域的核心玩家。

-
备用电源(Backup Power): 柴油发电机是确保数据中心最高等级可靠性的最后一道防线。仅发电机设备市场规模在 2024 年就达到约72 亿美元,全球领导者是康明斯(Cummins)。

-
IT 设备(IT Equipment): 这是数据中心投资中占比最大的一块。2024 年,全球服务器市场规模约2800 亿美元,其中 AI 服务器在金额上已占据半壁江山。网络设备市场规模约360 亿美元,主要由思科(Cisco) 和Arista主导。

-
工程与建筑(Construction & Services): 数据中心从图纸变为现实,离不开专业的工程设计和建筑施工。工程设计(占基础设施成本的 4.5-6.5%)市场约40 亿美元,主要玩家包括雅各布斯(Jacobs Solutions)、福陆(Fluor)等。而建筑施工市场则更为庞大(约650-800 亿美元,包含大量材料设备转嫁成本),参与者包括 Balfour Beatty、Skanska 等国际建筑巨头。

结语
我们在屏幕上所见的 “AI 闭环” 和令人惊叹的生成能力,不仅是 AI 技术的突进,也是一场关乎混凝土、铜缆和冷却液的物理世界基建竞赛。
一个极具冲击力的事实是:在未来数月内,全球数据中心的建设支出将历史性地超过所有通用办公楼的建设总和。

在这场由 AI 点燃的、前所未有的淘金热中,那些掌握着核心散热与供电技术、能够为海量算力 “降温” 和 “喂电” 的供应链巨头,无疑将成为这个时代沉默但真正的赢家。

