大模型价格战逆转?深扒 17 家厂商最新定价,竟有超 7 成在涨价

华尔街见闻
2025.08.24 06:00
portai
我是 PortAI,我可以总结文章信息。

DeepSeek 宣布自 9 月 6 日起调整 API 价格,涨幅达 50%,取消夜间优惠。这一变化标志着大模型价格战的逆转,越来越多厂商停止降价,部分甚至上调价格。国内"大模型六小虎"中已有四家涨价,国际厂商如 OpenAI 和谷歌的 API 价格也趋于稳定或小幅上涨。整体来看,大模型价格下行速度减缓,行业趋势向上。

DeepSeek 涨价了。

智东西 8 月 23 日报道,8 月 21 日,DeepSeek 在其公众号官宣了 DeepSeek-V3.1 的正式发布,还宣布自 9 月 6 日起,DeepSeek 将执行新价格表,取消了今年 2 月底推出的夜间优惠,推理与非推理 API 统一定价,输出价格调整至 12 元/百万 tokens。这一决定,让使用 DeepSeek API 的最低价格较过去上升了 50%。

DeepSeek 在业内曾有 “价格屠夫” 的称号,在 2024 年 5 月凭借 DeepSeek-V2,将 API 价格降至输入 1 元/百万 tokens、输出 2 元/百万 tokens 的行业低价,一石激起千层浪。

仅在当月,就有智谱、字节、阿里、百度、讯飞、腾讯等厂商跟进降价,最高降幅达到 80%-97%,还有部分厂商直接将轻量级模型免费开放,掀起一场持续半年多的大模型价格战。

▲2024 年 5 月部分厂商发布的大模型降价通知

然而,在 2025 年,却有越来越多的厂商选择了停止降价。在国内,“大模型六小虎” 中,已有智谱、月之暗面、MiniMax、阶跃星辰 4 家对部分 API 价格进行上调,百川智能、零一万物 2 家保持价格不变;阿里、字节、腾讯、百度、科大讯飞、商汤等大厂们广泛采用阶梯定价策略,或是拉开 “推理” 与 “非推理” 模式差距。行业的整体 API 价格趋于稳定,部分产品还出现了明显上浮。

国际厂商虽然仍在宣称智能将越来越便宜,但实际情况却是,过去一年 OpenAI、Anthropic、谷歌等企业的 API 价格基本原地踏步,甚至有小幅上涨。与此同时,订阅方案越来越贵,顶级模型几乎被锁在 200 美元/月及以上的高价档里,xAI 甚至推出了 300 美元/月的订阅方案。

在这样的背景下,DeepSeek 涨价只是更大规模行业趋势的一个缩影:当前,大模型价格的下行速度正逐渐放缓,顶级 AI 服务不再无限下探,反而开始呈现趋于稳定,略有回升的态势。

以下数据均收集于公开渠道,如有错漏欢迎指正。

01. DeepSeek、大模型六小虎 API 价格普涨,但有两家近 1 年没改价

大模型价格战,曾经是 2024 年国内 AI 圈最火的关键词之一,大模型 API 的价格曾经一度降至每百万 tokens 几毛钱。然而,进入 2025 年后,这一降价趋势却基本停滞,尤其是对于那些最先进的模型而言。

以 DeepSeek 为例,去年年底 DeepSeek-V3 刚刚发布时,DeepSeek 进行了 45 天的限时优惠,结束后,DeepSeek-Chat API(非推理 API)中输出价格从 2 元恢复到 8 元;这一 API 的价格将于今年 9 月份进一步上浮 50%,至 12 元。

Deepseek-Reason API(推理 API)的价格则相对稳定,并且会在今年 9 月份将输出价格从 16 元降至 12 元。不过,总体来看,DeepSeek API 的价格还是呈上涨趋势。

▲DeepSeek API 价格变动情况(智东西制图)

大模型六小虎中,智谱、月之暗面、百川智能、MiniMax、阶跃星辰、零一万物的价格,在 2025 年 1 季度之后,基本没有出现明显的下降。

智谱上一代 GLM-4 模型的 API 定价不区分输入输出与输入 token 数量,统一为 5 元/百万 tokens。而其今年 7 月发布的 GLM-4.5 模型,在去除模型发布之初的限时优惠政策后,高速推理版本(GLM-4.5-X)的输出价格最高可达到 64 元/百万 tokens。

即使是按照最低档计价(使用 GLM-4.5,输出长度小于 32K,输出长度小于 0.2K,推理速度为 30-50tokens/秒),其输出价格也从 5 元/百万 tokens 变成了 8 元/百万 tokens。

▲GLM-4.5 定价情况(图源:智谱开放平台官网)

月之暗面 2024 年 8 月正式推出企业 API,彼时在 128K 上下文场景中,其输入输出定价均为 60 元/百万 tokens,在业内属于较高水平。

今年 4 月,月之暗面对部分 API 价格进行了调整,使用其最新 K1.5 模型的 API 输出价格降至 30 元/百万 tokens,但在 Kimi K2 推出后,128K 上下文场景中的高速输出价格又回调至 64 元/百万 tokens。

▲月之暗面 Kimi 大模型 API 定价变化,选取的数据均为最高档次定价(智东西制图)

百川智能已经长期没有对 API 价格进行调整,旗舰模型 Baichuan4 的调用价格自 2024 年 5 月发布以来,一直维持在输入输出均为 100 元/百万 tokens 的水平。

▲百川智能 API 价格表(图源:百川智能)

2024 年 8 月,MiniMax 对其当时的旗舰文本生成模型 abab-6.5s 进行了大幅度的降价,输入和输出价格均统一为 1 元/百万 tokens。不过,目前这一模型在其 API 开放平台上已不可见。

MiniMax 新一代文本生成模型 MiniMax-Text-01(2025 年 1 月发布)的定价为输入 1 元/百万 tokens,输出 8 元/百万 tokens;而其推理模型 MiniMax-M1(2025 年 6 月发布)的价格则采用阶梯定价,最高价格为输入 2.4 元/百万 token,输出 24 元/百万 token。

▲MiniMax 大模型 API 定价变化趋势,选取的数据均为最高档次定价(智东西制图)

阶跃星辰以多模态为特色。今年 4 月,该公司发布了 Step-R1-V-Mini 多模态推理模型,输出价格为 8 元/百万 tokens。其 7 月发布的新一代多模态推理模型 Step 3 调整为阶梯定价,输入≤4k 的价格基本持平或略有下调,在最高档(4k < 输入≤ 64k)的价格有一定上涨,输出价格为 10 元/百万 tokens。同时,Step 3 最大上下文窗口为 64K,较 Step-R1-V-Mini 的 100K 有所缩小。

▲阶跃星辰大模型 API 定价变化趋势,选取的数据均为最高档次定价(智东西制图)

零一万物于 2024 年 10 月发布 Yi-Lighting,价格为 0.99 元/百万 tokens,此后未再更新 API 中的模型价格。如今调用 Yi-Lighting 时,还会根据用户输入智能路由到 DeepSeek-V3、Qwen-30B-A3B 等模型。

▲零一万物大模型 API 定价表(图源:零一万物)

02. 多家大厂细化定价规则,有模型输出超 300 字就得加钱

更为 “财大气粗” 的大厂们,也在 2025 年放缓了模型降价的脚步。

字节跳动在 2024 年 5 月首次推出豆包 Pro 家族,小于 32K 上下文的豆包通用模型 Pro 输入价格仅为 0.8 元/百万 tokens,输出价格为 2 元/百万 tokens。字节跳动火山引擎总裁谭待在发布会上称,这一定价 “比行业价格低 99.3%”。这次发布也将大模型价格战推至舆论的风口浪尖。

在 32K 上下文的场景下,2025 年 1 月发布的豆包 1.5 Pro 与 2025 年 7 月的豆包 1.6,维持了豆包通用模型 Pro 的价格水平。

不过,字节进一步细化了定价规则,根据输入、输出两个变量调整定价。当模型输出超过 200 个 token(约为 300 个汉字)时,豆包 1.6 的输出价变为 8 元/百万 tokens,输入价不变。

▲豆包 1.6 阶梯定价细则(图源:火山方舟)

从初代豆包 Pro,到豆包 1.5 Pro,再到豆包 1.6,字节豆包大模型 API 的最高价变化趋势如下:

▲字节跳动豆包大模型 API 定价变化趋势,选取的数据均为最高档次定价(智东西制图)

阿里巴巴通过阿里云百炼对外提供大模型 API 服务,由于阿里旗下的大模型数量众多,更新频率较快,且有开源版与商业版之分,全部统计将略显庞杂。智东西主要追踪了 2025 年以来其主力商业 API 服务之一 Qwen-Plus 的价格变化。

可以看到,Qwen-Plus 在今年 4 月份新版本推出,并引入思考与非思考模式的区别后,思考型输出的价格来到了非思考输出的 4 倍。

今年 7 月版本更新后,Qwen-Plus 全面采用阶梯定价的形式,128K 输入以下的调用价格与 4 月份定价持平,但当输入量超过 128K 时,价格出现明显上涨,最高输出价格达到了 64 元/百万 tokens。

▲阿里 Qwen-Plus API 价格变动情况(智东西制表)

2024 年 7 月,百度宣布将其旗舰模型 ERNIE 4.0 降价,以输入 40 元/百万 tokens、输出 120 元/百万 tokens 的价格对外提供服务,百度后续逐渐将 ERNIE 4.0 的推理价格降至业内常见的输入 4 元/百万 tokens、输出 16 元/百万 tokens(未查询到这一降价的具体时间),今年 3 月推出的 ERNIE 4.5 维持了这一定价,没有继续下降。

▲ERNIE 4.0、ERNIE 4.5 模型价格(图源:百度)

腾讯是国内几家大厂中少数仍在逐渐下调大模型 API 价格的企业。2024 年 9 月,腾讯发布了混元 Turbo 大模型,定价为输入 15 元/百万 tokens、输出 50 元/百万 tokens,在当时属于较高水平。

不过,目前混元 Turbo 的价格已经降至输入 2.4 元/百万 tokens、输出 9.6 元/百万 tokens,2025 年 3 月发布的混元 TurboS 价格则降至输入 0.8 元/百万 tokens、输出 2 元/百万 tokens。

▲部分腾讯混元大模型的价格(图源:腾讯云)

科大讯飞的 API 服务按照 token 包计费,不区分输入输出,不同套餐折合后的 token 单价不同。

按照价格区间的中值计算,2024 年 1 月推出的星火 3.5 的价格约为 25 元/百万 tokens,同年 6 月推出的星火 4.0 价格约为 60 元/百万 tokens,同年 10 月发布的星火 4.0 Turbo,以及 2025 年 1 月升级后的新版星火 4.0 Turbo,都维持了这一价格。

▲讯飞星火 3.5、星火 4.0、星火 4.0 Turbo 价格变化(智东西制图)

不过,讯飞也推出了一款基于全国产算力训练的深度推理大模型星火 X1,其价格约为 11 元/百万 tokens。

商汤旗舰模型日日新系列的 API 价格从 2024 年 5 月的 20 元/百万 tokens,回落至 2025 年 4 月的 9 元/百万 tokens,今年 7 月最新发布的 SenseNova-V6.5 Pro 维持了这一价格。

▲对应模型分别为日日新 SenseChat-5-1202、SenseNova-V6-Pro、SenseNova-V6.5 Pro,均为当时商汤已发布的最先进模型(智东西制图)

03.海外大模型厂商 “说一套做一套”,订阅方案涨至 200 美元级别

国际主流大模型厂商之间,虽没有出现明显的价格战现象,但 “鼓吹” 智能的成本将不断降低,是海外 AI 圈几位大咖们最热衷的话题之一。

今年 7 月,OpenAI 联合创始人、首席执行官 Sam Altman 说道:“智能的价格将低到无法计量,我们能将每个单位的智能的成本,每年降低至原来的 1/10,至少持续 5 年。”

2024 年 9 月,谷歌首席执行官 Sundar Pichai 分享了同样的观点:“在不久的将来,智能将像空气一样丰富,并且基本上对所有人免费。”

近期,The Information 的统计数据揭示了一个与上述观点相悖的现实,海外主要大模型厂商的 API 价格在 2024 年 7 月后的 1 年多时间里,就没有出现明显的下降,甚至还有轻微的涨幅。

例如,OpenAI 的 GPT 系列模型每百万 tokens 的价格,自从 2024 年底降至 12.5 美元之后,便没有继续大幅度下探,目前维持在 11.25 美元的水平。

Anthropic 的 Claude 3、Claude 4 系列模型,自推出以来就从未降价。

谷歌的 Gemini Pro 模型的调用价格出现上涨,从 Gemini-1.5 Pro 的 12.5 美元/百万 tokens 涨至 17.5 美元/百万 tokens。

▲最先进的通用模型价格近期基本没有出现下降(图源:The Information)

过去一年中,多家海外头部 AI 公司还相继推出了月费超过 200 美元的高阶订阅方案。

OpenAI 与 Anthropic 均推出了 200 美元/月的订阅档位;谷歌最新的 AI Ultra 捆绑包定价为 249.99 美元/月;xAI 旗下的 Grok 更进一步,将其顶级订阅方案设定为 300 美元/月的高价。

这些高端订阅服务的共同特点是:用户只有支付超高额的月费,才能使用到各家在发布会上展示的跑分最高、性能最强的旗舰模型。无论是更强的推理能力、更长的上下文窗口,还是更精准的代码或复杂任务处理能力,均被保留在付费墙之后,高性能模型成为高付费用户专属的资源。

那么,究竟是什么原因,导致了过去一段时间内 AI 服务价格下降趋势的明显停滞,甚至出现逆向走高呢?

04.算力、数据、人才价格持续推高,大模型玩家们也要考虑 ROI

大模型厂商们在算力、数据以及人才等方面的巨大投入,驱动了过去 1 年 AI 模型性能的飞速提升。

算力方面,GPU 的租赁价格目前已经趋于稳定。智东西收集的数据显示,2024 年 9 月左右,AWS、微软 Azure、谷歌云等主流公有云上的 H100 每卡时租赁价格大约在 5-11 美元的区间。

今年,根据算力市场数据分析公司 Silicon Data 的 GPU 价格指数,H100 已经基本稳定在每卡时租赁价格 2-3 美元的区间,没有出现价格的大幅度波动。

▲H100 GPU 租赁价格(图源:Silicon Data)

同时,新一代大模型无论是在训练还是推理阶段,算力需求都在不断增加。在与相对稳定的 GPU 价格复合后,算力成本成为限制 AI 服务价格继续下探的 “硬门槛” 之一。

数据也是当今大模型训练中不可忽视的成本项。起初,由于监管缺位,大模型训练数据的获取成本相对较低。随着相关诉讼增多和合规审查趋严,为了避免与数据所有者发生法律纠纷,厂商开始主动与企业签订合同,购买授权数据。

例如,据《华尔街日报》报道,OpenAI 与美国出版集团 News Corp 签署的 5 年数据使用协议金额可能高达 2.5 亿美元;谷歌则与美国的贴吧类平台 Reddit 达成 AI 使用内容许可协议,路透社报道称,其每年价格约为 6000 万美元。

与此同时,这些模型背后人才的价格,也在水涨船高。

在国内,猎聘大数据研究院 7 月份发布的《2025 上半年人才供需洞察报告》显示当前国内 AI 人才缺口已突破 500 万,AI 技术人员平均年薪为 32.35 万元,50 万年薪以上的 AI 技术岗占比高达 31.03%。AI 技术人才的期望年资甚至高于如今的平均年资,为 44.09 万元。

大洋彼岸,硅谷的 AI 人才争夺战打得火热。除了那些数亿美元的个别案例之外,AI 人才的整体薪资水平也明显高于其他行业。国际职场平台 Levels.FYI 上的数据显示,在旧金山湾区,ML/AI 工程师的薪资中位数要比所有软件工程师的薪资中位数高 13% 左右。考虑到所有软件工程师的统计范畴内包含了 ML/AI 工程师,后者的薪资优势可能更大。

▲美国旧金山湾区 ML/AI 工程师薪资(图源:Levels.FYI)

05.订阅模式面临服务成本考验,成本控制迫在眉睫

打造大模型的成本越来越高昂,而随着推理模型范式的兴起,以及 Agent 等长序列任务的出现,用户的用量正在不断攀升。大模型订阅就像是一张 “无限流量卡”,用户用得越多,大模型厂商们提供服务的成本便越高,有部分厂商已经被用户逼到了入不敷出的程度。

本月,Anthropic 旗下的 Claude Code 编程 Agent 便取消了 200 美元/月订阅方案的无限调用大模型权限,原因是有用户几乎 24 小时不停地使用大模型,为这些用户提供 AI 服务的成本已经达到了每月数万美元,远超订阅方案的定价。

Anthropic 更是在发布会上宣称,Claude 4 Opus 能连续 7 小时工作,完成编程类任务。按照 Claude 4 Opus 大约 50 tokens/秒的推理速度计算,这一任务大约会用掉 126 万个 token,成本约 113.4 美元。

面临高昂的服务成本,大模型厂商们纷纷祭出各种手段来降低开支。

DeepSeek 在其最新一代模型中提出了多种降本方法。例如,在对 DeepSeek-V3.1 进行思维链压缩训练后,模型推理时输出 token 数可减少 20%-50%,且各项任务的平均表现与 DeepSeek-R1-0528 持平。这意味着 DeepSeek 的聊天机器人,能在不影响

DeepSeek-V3.1 还在一个模型内支持了思考模式与非思考模式,开发者可通过特定标签控制推理的开关,进一步节省 API 使用成本。

腾讯混元降本的思路是架构创新。在混元 TurboS 上,腾讯融合了两种架构,让 Transformer 的上下文理解力与 Mamba 的长序列处理能力结合,实现性能与效率的平衡。

OpenAI 在 GPT-5 上采取了 “模型自动路由” 的方式:判断任务的复杂度,将相对简单的需求分配给轻量模型处理,从而节省算力资源。托管 GPT-5 的微软 Azure 称,这一方式最高可将推理成本削减 60%。

然而,问题的关键在于:大模型厂商和云服务提供商的成本下降,并不必然传导为终端用户与企业的使用成本下降。当前,如何在高昂的前期研发与部署投入后,将千亿美元级别的 AI 投资真正转化为商业价值,已成为所有大模型玩家必须回答的问题。

06.结论:大模型价格还有下探空间吗?

未来,大模型价格的下降还存在几条路径。一方面,随着模型平均性能的提升,未来经过优化的中低端廉价模型,也可高效解决特定任务。此外,随着大模型、芯片领域的基础研究不断进步,新的技术路径持续涌现,或许能在不牺牲效果的前提下,进一步压缩训练与推理的单位成本。

从产业发展的角度来看,大模型价格的阶段性停滞或是回升有其价值。这为厂商回收前期巨额研发与基础设施投入,维持可持续创新提供了缓冲期,也能推动市场加速探索明确的商业化场景和付费模式。产业有望借此机会,营造更为成熟、健康的生态。

风险提示及免责条款

市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。