
人工智能需要怎樣的服務器電源?


芝能科技出品
人工智能(AI)技術的突飛猛進引發了對計算能力的巨大需求,進而凸顯了 AI 服務器電源的關鍵作用。
本文將從多個維度剖析 AI 服務器電源的發展現狀,包括其重要性、技術特點、市場需求以及行業競爭。

01
AI 服務器電源的需求趨勢

AI 技術的精進導致電力消耗劇增。據 Artificial Intelligence Index Report 2023 統計,各類先進 AI 模型如 DeepMind Gopher、Hugging Face BLOOM、OpenAI GPT-3、Meta OPT 的單次訓練耗電量分別高達 1066MWh、433MWh、1287MWh 和 324MWh。
國際能源署(IEA)的數據指出,2023 年 NVIDIA 芯片的電力消耗已達 7.3TWh,預估至 2026 年,這一數字將飆升至 2023 年的十倍。在電力需求日益增長的情境下,高效能的服務器電源變得至關重要。相較於傳統服務器電源 96% 的轉換效率,AI 服務器電源需達到 97.5%-98% 的高標準,以降低能量損耗並支撐更高功率密度的 GPU。

AI 模型與 GPU 技術的迭代促使 AI 服務器電源的功率密度不斷提升。以 H100 服務器機架為例,10.2kW 的功率需要配備 19.8kW 的電源;而 NVL72 機架的 120kW 功率則要求 198kW 的電源模塊。AI 服務器電源的功率密度可達 100W/立方英寸,遠超普通服務器電源的 50W/立方英寸。
02
AI 服務器電源的技術架構與特性

AI 服務器電源的架構由 UPS、AC/DC 和 DC/DC 三個層級構成,各司其職確保電力供應的連續性和穩定性。
● UPS:在電網中斷時提供臨時電力,保護數據免受損失。
● AC/DC:將電網的交流電轉換為適合服務器使用的 50V 直流電。
● DC/DC:進一步將 50V 直流電降至芯片可接受的 0.8V。
AC/DC 電源模塊包含電源模塊(PSU)和電源管理控制器(PMC),例如,NVL72 服務器機架需配置 6 組電源架,總計 36 個模塊,總功率 198kW。DC/DC 模塊則要求緊密貼合負載,以減少供電網絡的損耗。
AI 服務器電源的功率密度目標是 180W/立方英寸,這對散熱技術提出了新的挑戰。液冷技術因能有效提升温控性能,正逐步取代傳統的風冷方案。
預計 2024/25 年,AI 服務器電源的 AC/DC 和 DC/DC 需求將分別達到 10.2GW/11.8GW 和 3GW/4GW。市場規模有望在 2025 年擴大至 156 億至 272 億元。當前市場由台系廠商引領,但國產品牌正在奮起直追,有望憑藉持續的研發投入和技術積累,在未來佔據一席之地。
小結
AI 服務器電源作為 AI 技術發展的基石,其技術創新和市場拓展將伴隨 AI 領域的持續繁榮。面對未來,國產品牌需抓住機遇,迎接挑戰,共同推動 AI 服務器電源行業的進步與創新。
本文版權歸屬原作者/機構所有。
當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。

