作者:李笑寅 来源:硬 AI “芯片荒” 之后,人工智能市场还将面临 “电力荒”? 受益于 AI 服务器需求激增,全球最大的服务器制造商之一戴尔最新财季实现了超预期的营收,股价在过去 12 个月的时间里上涨了一倍多。 财报发布后,戴尔公司的首席运营官 Jeff Clarke 在新闻稿中透露:英伟达将于 2025 年推出载有 “Blackwell” 架构的 B200 产品,功耗或将达到 1000W。 Clarke 还表示,戴尔的旗舰产品 PowerEdge XE9680 机架服务器采用了英伟达 GPU,是该公司历史上 “速度最快” 的解决方案。 B200 功耗较 H100 增加 40% 以上 目前,英伟达尚未透露 Blackwell 架构的详细信息,如果从芯片制造的角度、参考散热的基本经验法则(每 mm²芯片面积最高散热量为 1W)来看: 英伟达的 H100(基于定制 4nm 级工艺技术构建)的功耗约为 700W(包含 HBM 内存功率在内),并且考虑到芯片裸片的面积大小为 814mm²,因此每平方毫米的功耗实际是低于 1W 的。这就相当于,B200 的功耗将较 H100 增加 40% 以上。 有媒体机构分析指出,H200 很可能会基于另一种性能增强的工艺技术构建,比如采用 3nm 级的工艺技术构建。 并且考虑到芯片消耗的功率以及所需的散热量,B100 可能会成为该公司的第一个双芯片设计生产的 GPU,从而使其具有更大的表面积来散热。据悉,AMD 和英特尔采用了具有多芯片设计的 GPU 架构,或将成为一种行业趋势。 除了能耗对芯片设计提出要求外,谈及 AI 和高性能计算(HPC)应用,还需要考虑到如何平衡这些 FLOPS 所需的高功率和同时释放的热能。 FLOPS(floating-point operations per second)是指每秒浮点运算次数,一般用来衡量硬件的性能。 对于软件开发人员来说,重要的是如何高效地使用这些 FLOPS;而对于硬件开发人员来说,重要的是如何冷却产生这些 FLOPS 的处理器。 而这正是戴尔 Blackwell 处理器的优势所在。 Clarke 表示: “(英伟达下一代 AI 及 HPC GPU)将在明年的 B200 上实现。” “我们将有机会展示我们的工程技术和我们的行动速度,以及我们作为行业领导者所做的工作,将我们的专业技术用于实现液冷的规模化性能,无论是流体化学和性能方面的工作,还是我们的互连工作、我们正在做的遥测工作、我们正在做的电源管理工作。这确实让我们做好了准备,将其大规模推向市场,以利用市场上将存在的这种令人难以置信的计算能力或强度或能力。” B200 并未出现在英伟达去年 10 月份发布的技术路线图中。目前,英伟达也还尚未公布 B100 的详细信息,不过可能会在本月晚些时候即将举行的开发者大会上释出相关细节。 AI 终极利好的是——能源? 随着人工智能技术发展,市场眼下对芯片的需求激增,但这之后还将面临着电力需求的激增。 从行业来看,人工智能领域的蓬勃几乎重塑了本就炙手可热的数据中心市场。有相关数据显示,十年前全球数据中心市场的耗电量为 100 亿瓦,而如今 1000 亿瓦的水平已十分常见。 尽管目前人工智能仅占全球数据中心规模的一小部分。但根据美国 Uptime Institute 的预测,到 2025 年,人工智能业务在全球数据中心用电量中的占比将从 2% 猛增到 10%。 有策略师分析表示,AI 技术发展利好能源股: “越来越多的人开始意识到,大型人工智能服务器群将需要大量能源,这正在提高一些投资者的兴趣,开始将投资范围扩大至电力、油气在内的相关能源领域,核能也开始受到关注。” 马斯克此前也表现对出能源前景的担忧。去年年底他在一档播客节目中表示,美国现在有芯片短缺,一年后会出现变压器短缺,大约两年内就会出现电力短缺。 有媒体报道称,美国目前的变压器需求主要靠进口补足。随着向更清洁电力系统转型,电网不断扩容,对变压器的需求将激增,如果不采取进一步行动,到 2030 年美国将面临一道难以逾越的国内供应缺口。