Dolphin Research
2026.03.31 13:28

智谱(纪要):以模型能力上界和技术驱动为核心

以下为海豚君整理的$智谱(02513.HK) FY2025 的财报电话会纪要

一、财报核心信息回顾

1. 收入高速增长:2025 年全年总收入达 7.24 亿人民币,同比增长 132%;云端开放平台及 API 业务占总收入比例提升至 26.3%。

2. API 业务 ARR 爆发截至 2026 年 3 月,API 业务 ARR 达到 2.5 亿美金,过去 12 个月提升 60 倍;API 调用定价较 2025 年 12 月提升 83%,涨价后需求不降反升。

3. 毛利结构性改善:全年毛利润 2.97 亿人民币,综合毛利率 41%;云端 API 业务毛利率从 2024 年的 3.4% 跃升至 2025 年全年的 18.9%,提升近五倍。

4. 研发与损益:全年研发支出 31.8 亿元人民币,同比增长 44.9%;经调整净亏损 31.8 亿人民币,毛利润已初步覆盖扣除股份支付后的销售费用和管理费用。

二、财报电话会详细内容

2.1 高管陈述核心信息

1. 模型发展:AI Coding 五次范式革命

a. 第一阶段(AI Coding):2024 年前,大模型作为高级代码补全工具,人类驱动每一步调试运行,智谱最早发布 CodeGeeX 代码模型。

b. 第二阶段(Vibe Coding):2025 年用户无需懂代码,描述感受和场景即可搭建项目(氛围编程),模型需要理解意图和项目整体逻辑。GLM-4.5(2025 年 7 月)首次将推理、编码和 Agent 能力原生融合,3550 亿参数 MoE 架构,12 项评测国产第一、全球第三、开源第一;GLM-4.6 两个月后发布,200K token 超长上下文,LMArena 代码竞技场全球并列第一;GLM-4.7(2025 年 12 月)强化规划和工具协同,Coding 能力超越 Claude 3.5,该时点 API ARR 较前几代提升十倍。

c. 第三阶段(Agentic Engineering):2026 年 2 月 GLM-5 发布,7440 亿参数 MoE 架构,SWE-bench Verified 开源最高分,AI 智能指数全球第四、开源第一。发布 24 小时内字节跳动、阿里巴巴、腾讯、美团、快手、百度、WPS 等全部官方接入。核心技术创新包括:MLA256 改进降低 KV Cache、动态吸收注意力机制降低 50% 部署成本、异步强化学习框架、超 1 万个可验证真实工程环境。2026 年 3 月 GLM-5 Turbo 发布,全球首款专为 Agentic Coding 深度优化的基座模型,配套 AutoClaw 本地版上线两天突破 10 万用户,订阅 Claw Plan 定价比 Coding Plan 上调 20% 仍供不应求。

d. 第四阶段(Long-horizon Tasks):接管跨越数天数周的长链路复杂任务,要求模型调度工作记忆与长期记忆,多智能体协作和异步强化学习是当前技术攻关重点。

e. 第五阶段(Autonomous OS):大模型从对话接口走向操作系统(LMOS),成为用户意图的调度者,APP 商店将被 API 商店取代。

2. 业务发展

a. MaaS 平台:BigModel.cn / Z.AI 平台累计服务超 400 万中小企业与开发者,覆盖 218 个国家或地区,中国前十大互联网公司九家在用 GLM。

b. Coding Plan:截至 2026 年 3 月付费开发者超 24.2 万,覆盖 196 个国家,推出六个月付费 token 调用增长 15 倍。

c. Claw Plan:与 GLM-5 Turbo 同步推出,上线两天增长 10 万用户,20 天增长 40 万用户,在 OpenRouter 平台调用量位居前两名。

d. 全球化:马来西亚落地国家级 MaaS 平台 Z.AI Lab;2026 年 3 月开始探索与海外第三方算力平台合作,将闭源模型上架按调用收入分成。

3. 未来展望

a. TAC 时代(Token Architecture Capability):token 成为新的生产要素,调动智能资源、将想法转化为经济成果的能力将成为核心竞争力。

b. LMOS 演进:大模型操作系统直接理解模糊意图、拆解长链任务并调度全站资源,致力于将 GLM 打造为自治系统核心引擎,实现从云端 API 到设备端原生智能的跃迁。

c. 智能输出革命:token 调用指数级增长推动行业收入上限大幅提升;依托中国在能源、芯片、算法适配及 IDC 运维全产业链优势,推动 token 出海,向全球供应高质优价的智能生产要素。

2.2 Q&A 问答

Q:算力资源是否已成为制约收入增长的核心瓶颈?未来算力规划和资源分配策略如何?

A:算力供需偏紧确实是行业性共性问题,不是个别公司的现象,无论国内还是海外头部模型厂商整体都处在算力相对紧张的状态。但从另一个角度看,这也反映出真实需求非常强劲。

以我们自身为例,从目前各大头部平台和用户向我们要的并发量来看,实际需求水平大约是我们目前支持的日均调用的 1 至 2 倍。如果算力供给能够进一步释放,无论是调用量还是收入规模都具备比较可观的放大空间。

短期策略上,一方面通过外部算力采购或内部资源调配尽快补足关键环节的供给,另一方面在资源相对紧张的情况下更加聚焦高价值场景和合作伙伴,提升 token 的供给效率。在海外市场,我们也在探索与本地推理平台的合作,通过模型部署、收入分成的方式推进业务,这一方面能加快海外渗透速度,另一方面也在一定程度上实现算力资源的外部化与分担。

中长期来看,算力问题的根本解决还是要回到模型与芯片协同优化的路径上。包括模型结构优化、推理效率提升,以及与国产芯片厂商在底层架构层面的适配与协同设计,持续降低单位 token 的算力消耗。这方面我们已经在持续推进,可以期待今年看到阶段性进展。整体来看,随着模型与芯片协同程度不断加深,算力约束会逐步从硬瓶颈转化为可优化的变量。

Q:Agent 相关产品的商业化处于什么阶段?收入贡献和付费转化是否已开始验证?是否出现了高频刚需的典型应用场景?

A:从现阶段看,Agent 相关产品线已经进入从早期验证到放量的阶段。以本月刚推的 Claw Plan 为例,无论用户规模还是调用量都在指数级增长阶段。

我们特别想强调的一点是,Claw Plan 推出的同时做了二次提价,整个调用量的加速增长是在 YTD 对比去年 12 月底提价 83% 的基础上完成的。这充分证明当前需求本质上是由模型能力驱动的,而不是以价换量的价格驱动。从全球市场看,包括 Anthropic 在内的头部厂商也呈现类似特征——每一次模型能力提升、智能上界突破,都会帮助模型不断打开高价值场景的渗透,从而支撑价格和需求的双向同步增长。所以这一轮以 Claw Plan 为代表的 Agent 产品线增长,不是低毛利以价换量的阶段性现象,而是高质量模型在真实场景中逐步建立价值后带来的自然放量。

从商业化验证来看,如果看大盘,Agent 产品的收入贡献确实还在早期阶段。但值得兴奋的是,付费转化和面向开发者场景的使用深度已经出现非常多积极信号。尤其在复杂任务场景中,用户已经从新鲜感驱动的尝试性使用转向持续性依赖,调用频次和使用时长都有显著攀升。从 Coding 自然延伸到 Copilot 的用户,高频需求集中在开发效率提升和自动化流程处理。

除了 C 端开发者场景,下半年开始更大的机会应该在企业级市场。底层逻辑很简单——Agent 的核心是 7×24 小时的长链任务架构,真正高粘性的 7×24 场景在企业级市场中更多,因为企业内部存在大量可被自动化、可持续调用的业务流程。

从中长期来看,随着模型能力持续提升和使用门槛不断降低,Agent 会从工具形态慢慢变成更通用的生产力形态,覆盖更复杂和长期的任务场景。总结来说,Agent 当前还在商业化早期放量阶段,但已验证了真实需求和付费意愿,无论 C 端开发者还是企业级应用都有非常广阔的增长潜力。

Q:公司在制定价格时,更多是基于成本推动加成定价,还是基于模型能力提升给客户带来的价值定价?未来利润率趋势如何?

A:核心取决于我们怎么看待 token 经济的终局。token 最后会变成像手机流量一样完全标准化的 commodity,还是走向分层结构化的商品?从公司角度,我们认为未来 AI 价格体系会走向 token 分层,所以定价逻辑肯定不是简单的成本加成。

市场未来会自然分成两类 token 需求。一类是基于简单对话、消费级的低复杂度推理和问答,这部分 token 未来会走向低价甚至最终免费,商业模式可能走向广告模式。另一类是高复杂度、高可靠性、真正能解决生产力问题的高质量 token,对应更强的模型能力,具备明确的价值创造能力。这部分塔尖 token 将让提供方具备持续的定价权和议价能力。

从公司定价策略来看,确实有存储等成本上涨的考虑,但更核心的还是基于模型能力带来的价值定价。我们整体战略聚焦高质量高智能水平的塔尖模型,从全球对标来看,商业化路径更像 Anthropic——通过持续提升模型智能上界,在高价值场景中建立定价权,而不是量大管饱的低价竞争。塔尖需求对价格敏感度更低,对效果和稳定性要求更高。

关于成本传导,算力成本变化对模型端定价有一定传导,但不是简单线性关系。一方面,大模型公司普遍在采取极致推理优化提升效率,单位 token 成本持续下降;另一方面,在高价值场景下客户更关注 ROI 而非单纯 token 价格,就像今天 Coding 产品定价很高,美国主流大厂用量依然很好。因此成本更多是一个底线约束,而不是决定定价的核心考量。

以开发者市场为例,美国软件开发者约 400 多万人,年薪中位数约 13 万美元,一线模型厂商高端订阅价格平均约 200 美元/月,一个开发者同时订阅 2-3 个模型,约花年薪 5% 在模型上,在这个价格水平下海外头部闭源模型 API 仍供不应求。而中国信息技术从业人员平均薪资约 3.3 万美元,按同样 5% 收入占比测算,对应月付费约 138 美元,而目前国内头部模型厂商定价远未达到这个水平,提升空间非常大。同时,头部模型公司之间不是存量博弈关系,用户存在大量重合,说明模型做到最头部后核心竞争不是价格而是能力边界和使用体验。

Q:提价的同时 token 调用量和开发者规模仍在快速增长,这种量价齐升的状态背后是模型能力驱动还是生态与客户结构的变化?该趋势是否可持续?

A:量价齐升当前不是短期阶段性结果,而是由模型能力提升和需求侧变化共同驱动的。

从需求侧来看有两个重要变化。第一是应用入口的扩展。最早我们在 2024 年底开始卡位 Coding,当时即使海外 Anthropic 也远未完成市场教育,大家认为 Coding 只是少数专业程序员的利基市场。但这两年,Coding 已从利基赛道变成企业级软件市场的入口。随着模型智能上界提升,越来越多企业把 Coding 作为切入点,向内部更广泛的开发需求延伸,包括自动化脚本、数据处理、系统集成等泛开发任务都用 Coding 范式完成,这显著扩大了 token 的使用场景和调用规模。

第二是使用人群的横向破圈。早年只有专业程序员在使用,后来企业内部产品经理、数据分析师、BI 层面的泛开发者都在用。现在随着 Agentic Engineering 新范式出现,普通用户即使没有软件开发背景,也可以通过自然语言完成复杂任务。这本质上是模型能力提升带来的门槛下降,让开发能力从少数人手中逐步释放。

这两个变化同时发生并相互强化,共同导致需求侧容量扩张。从客户实际情况看,国内头部互联网公司和海外主流平台都在接入我们的模型并逐步提升使用深度。这类客户对效果和稳定性要求很高,他们的选择反映核心驱动力是模型智能上界而非价格。在这样的背景下,价格攀升并没有反向抑制需求,而是和需求扩张同时发生——因为越往塔尖做高质量 token,对应的使用场景本身就在不断往更高价值、更高复杂度的任务延伸,而这类场景对价格敏感度本来就较低,对能力依赖越来越强。

从持续性来看,一方面模型能力向更复杂维度推进,新使用场景不断被打开;另一方面企业级应用还在早期阶段,用户数和单用户使用深度都有进一步提升空间。量价齐升本质上是基础模型从工具走向生产力基础设施过程中的自然结果。

Q:近期价格上调背景下,客户对 token 使用量的敏感度如何?价格提升对 token 消耗增长是否有阶段性压抑?

A:从我们自己的历史数据看,可以分 2025 年和 2026 年两个阶段。2025 年我们还没有做涨价动作,打响涨价第一枪是 2026 年春节。但回过头看,2025 年推出 Coding Plan 时我们的 API 定价已经是国内模型中相对偏高的,在这个较高价格带宽上定价就带来了 2025 年 3 月到年底 ARR 接近十倍的增长。

2026 年严格来说只有半个季度——从 2 月份春节开始连续几个模型提价,累计提了 83%。但这半个季度提价之后,无论 Claw Plan 还是原来的 Coding 产品都保持了极强增长,Claw Plan 推出两天就有 10 万用户,20 天 40 万用户,而我们 Coding Plan 存量用户是 24 万。

所以从数据上看,价格上调背景下 token 消耗量和用户增长都保持在快车道上,价格因素并未构成特别大的阻碍,核心还是需求结构的变化。原因有三:第一,token 本身会分层,我们面向的主要场景不是低复杂度标准化使用场景,在那些场景中价格是敏感变量,而在高复杂度高价值场景中客户更关注 ROI 而非单一 token 价格,提价不会抑制这类需求。第二,持续提价基础上,核心大 KA 客户包括十大互联网公司中的九家并未出现价格对调用量的抑制。背后原因是 token 作为计量智能输出的单位,每个 token 的智力水平更高、智能上界更高时,同样 100 万 token 能完成的任务复杂度和价值不断提升,这本身对应价格中枢具备上移可能性。第三,从更长期看,越往塔尖做,面向的场景在不断解锁,应用边界不断扩展,高价值 token 的占比显著提升。

总结来看,价格上涨会产生分层效应——对低价量大场景有抑制,但在高价值场景中需求对价格的敏感度相对有限。模型能力提升带来的需求扩张效应远远显著于价格因素带来的潜在抑制,这也是我们看好接下来一年 token 消耗和 ARR 持续增长的核心原因。

Q:公司提出回归基模的策略,在文本模态和 Coding 领域取得不错进展,这在行业内是非共识打法,背后的战略取舍思考是什么?

A:这个问题并不是一个完全的二选一关系。从未来 2 到 3 年战略核心重点看,我们会更加倾向于标准化 API 能力的持续放量。

首先从商业模式演进看,在模型能力和客户认知还不够成熟的阶段,行业普遍通过更高附加值的产品化或解决方案来封装模型,匹配客户需求并提升变现效率。但这背后的前提是当时 API 本身的规模还没完全起来,单位经济模型还没充分释放。随着模型能力持续提升和调用规模快速放大,API 层级的单位经济性正在快速变化。一旦调用量进入更高量级,API 本身的毛利空间和盈利能力可以被显著释放。在这种情况下,专注于提供标准化但高质量的 token 能力本身就可以实现非常高效的规模化。

第二,从当前策略看,我们并不是在弱化本地化部署业务,而是在重新定义它的角色。我们会越来越把企业级智能体、企业级通用大模型服务视为扩客或切入场景的入口,通过解决具体业务问题帮助客户快速落地,后续通过交叉销售或能力开放,引导客户逐步从购买解决方案转向直接调用底层 token 能力。

第三,从更长期技术和经济趋势看,云端大参数模型在参数规模和推理效率上持续提升,单位人力成本、算力成本不断下降,能力边界不断拓展,本地模型的经济性会持续受到挑战。更底层的原因是整个行业正在经历智能输出变革,高质量模型能力逐步在云端聚集并通过标准化接口对外输出。谁能提供稳定高质量的 token 供给,谁就更有可能占据产业链核心位置。

因此我们认为未来 2-3 年开放平台及 API 业务会成为收入规模和利润释放的核心载体,Agent 解决方案会是获客和场景验证的重要补充,两者不是替代关系,重心会逐渐向标准化能力输出倾斜。

Q:公司如何维持持续领先的研发节奏?以能力上界为导向的优势在未来 1-2 年如何保持?

A:当前在智能上界和模型迭代节奏上的领先并不是单点突破的结果,而是几项长期能力共同驱动的。

首先是战略上的长期专注。我们从最开始就以 AGI 作为长期目标,在技术路径上保持持续投入和聚焦。整体以技术进展为主线自然延伸出商业化路径,而不是先定义商业模式再反向约束技术路线。这种技术驱动方式使得关键模型能力突破能保持连续性和前瞻性。

第二是人才体系的长期积累和独特优势。核心团队在大模型方向有深厚学术背景和长期研究积累,同时与国内顶尖大学及学界保持紧密联系,能够在早期吸引并培养一批最优秀的青年 AI 人才。产学研的深度融合让我们保持源源不断的人才梯队补充。

第三是先发优势带来的技术复利。随着模型能力持续提升以及在数据、训练方法和工程体系上的长期积累,研发效率本身在提升,包括模型优化迭代周期以及小版本更新频率都在逐步加快。

从可持续性来看,未来 1-2 年这种领先优势仍具备延续性。一方面当前大模型能力边界仍在快速拓展,技术曲线不是保持陡峭上扬而是在加速。另一方面,领先厂商之间的差距更多体现在工程体系、数据积累和人才密度等系统性能力上,这些能力通常具有较强的持续性。综合来看,当前的领先是基于长期投入形成的体系化能力。整体战略上,我们更接近于像 Anthropic 这样的公司,以模型能力上界和技术驱动为核心,而不是以价格和单一产品形态为竞争重点。

<正文结束>

本文的风险披露与声明:海豚研究免责声明及一般披露