Dolphin Research
2026.03.31 13:28

智譜(紀要):以模型能力上界和技術驅動為核心

以下為海豚君整理的$智譜(02513.HK) FY2025 的財報電話會紀要

一、財報核心信息回顧

1. 收入高速增長:2025 年全年總收入達 7.24 億人民幣,同比增長 132%;雲端開放平台及 API 業務佔總收入比例提升至 26.3%。

2. API 業務 ARR 爆發截至 2026 年 3 月,API 業務 ARR 達到 2.5 億美金,過去 12 個月提升 60 倍;API 調用定價較 2025 年 12 月提升 83%,漲價後需求不降反升。

3. 毛利結構性改善:全年毛利潤 2.97 億人民幣,綜合毛利率 41%;雲端 API 業務毛利率從 2024 年的 3.4% 躍升至 2025 年全年的 18.9%,提升近五倍。

4. 研發與損益:全年研發支出 31.8 億元人民幣,同比增長 44.9%;經調整淨虧損 31.8 億人民幣,毛利潤已初步覆蓋扣除股份支付後的銷售費用和管理費用。

二、財報電話會詳細內容

2.1 高管陳述核心信息

1. 模型發展:AI Coding 五次範式革命

a. 第一階段(AI Coding):2024 年前,大模型作為高級代碼補全工具,人類驅動每一步調試運行,智譜最早發佈 CodeGeeX 代碼模型。

b. 第二階段(Vibe Coding):2025 年用户無需懂代碼,描述感受和場景即可搭建項目(氛圍編程),模型需要理解意圖和項目整體邏輯。GLM-4.5(2025 年 7 月)首次將推理、編碼和 Agent 能力原生融合,3550 億參數 MoE 架構,12 項評測國產第一、全球第三、開源第一;GLM-4.6 兩個月後發佈,200K token 超長上下文,LMArena 代碼競技場全球並列第一;GLM-4.7(2025 年 12 月)強化規劃和工具協同,Coding 能力超越 Claude 3.5,該時點 API ARR 較前幾代提升十倍。

c. 第三階段(Agentic Engineering):2026 年 2 月 GLM-5 發佈,7440 億參數 MoE 架構,SWE-bench Verified 開源最高分,AI 智能指數全球第四、開源第一。發佈 24 小時內字節跳動、阿里巴巴、騰訊、美團、快手、百度、WPS 等全部官方接入。核心技術創新包括:MLA256 改進降低 KV Cache、動態吸收注意力機制降低 50% 部署成本、異步強化學習框架、超 1 萬個可驗證真實工程環境。2026 年 3 月 GLM-5 Turbo 發佈,全球首款專為 Agentic Coding 深度優化的基座模型,配套 AutoClaw 本地版上線兩天突破 10 萬用户,訂閲 Claw Plan 定價比 Coding Plan 上調 20% 仍供不應求。

d. 第四階段(Long-horizon Tasks):接管跨越數天數週的長鏈路複雜任務,要求模型調度工作記憶與長期記憶,多智能體協作和異步強化學習是當前技術攻關重點。

e. 第五階段(Autonomous OS):大模型從對話接口走向操作系統(LMOS),成為用户意圖的調度者,APP 商店將被 API 商店取代。

2. 業務發展

a. MaaS 平台:BigModel.cn / Z.AI 平台累計服務超 400 萬中小企業與開發者,覆蓋 218 個國家或地區,中國前十大互聯網公司九家在用 GLM。

b. Coding Plan:截至 2026 年 3 月付費開發者超 24.2 萬,覆蓋 196 個國家,推出六個月付費 token 調用增長 15 倍。

c. Claw Plan:與 GLM-5 Turbo 同步推出,上線兩天增長 10 萬用户,20 天增長 40 萬用户,在 OpenRouter 平台調用量位居前兩名。

d. 全球化:馬來西亞落地國家級 MaaS 平台 Z.AI Lab;2026 年 3 月開始探索與海外第三方算力平台合作,將閉源模型上架按調用收入分成。

3. 未來展望

a. TAC 時代(Token Architecture Capability):token 成為新的生產要素,調動智能資源、將想法轉化為經濟成果的能力將成為核心競爭力。

b. LMOS 演進:大模型操作系統直接理解模糊意圖、拆解長鏈任務並調度全站資源,致力於將 GLM 打造為自治系統核心引擎,實現從雲端 API 到設備端原生智能的躍遷。

c. 智能輸出革命:token 調用指數級增長推動行業收入上限大幅提升;依託中國在能源、芯片、算法適配及 IDC 運維全產業鏈優勢,推動 token 出海,向全球供應高質優價的智能生產要素。

2.2 Q&A 問答

Q:算力資源是否已成為制約收入增長的核心瓶頸?未來算力規劃和資源分配策略如何?

A:算力供需偏緊確實是行業性共性問題,不是個別公司的現象,無論國內還是海外頭部模型廠商整體都處在算力相對緊張的狀態。但從另一個角度看,這也反映出真實需求非常強勁。

以我們自身為例,從目前各大頭部平台和用户向我們要的併發量來看,實際需求水平大約是我們目前支持的日均調用的 1 至 2 倍。如果算力供給能夠進一步釋放,無論是調用量還是收入規模都具備比較可觀的放大空間。

短期策略上,一方面通過外部算力採購或內部資源調配儘快補足關鍵環節的供給,另一方面在資源相對緊張的情況下更加聚焦高價值場景和合作夥伴,提升 token 的供給效率。在海外市場,我們也在探索與本地推理平台的合作,通過模型部署、收入分成的方式推進業務,這一方面能加快海外滲透速度,另一方面也在一定程度上實現算力資源的外部化與分擔。

中長期來看,算力問題的根本解決還是要回到模型與芯片協同優化的路徑上。包括模型結構優化、推理效率提升,以及與國產芯片廠商在底層架構層面的適配與協同設計,持續降低單位 token 的算力消耗。這方面我們已經在持續推進,可以期待今年看到階段性進展。整體來看,隨着模型與芯片協同程度不斷加深,算力約束會逐步從硬瓶頸轉化為可優化的變量。

Q:Agent 相關產品的商業化處於什麼階段?收入貢獻和付費轉化是否已開始驗證?是否出現了高頻剛需的典型應用場景?

A:從現階段看,Agent 相關產品線已經進入從早期驗證到放量的階段。以本月剛推的 Claw Plan 為例,無論用户規模還是調用量都在指數級增長階段。

我們特別想強調的一點是,Claw Plan 推出的同時做了二次提價,整個調用量的加速增長是在 YTD 對比去年 12 月底提價 83% 的基礎上完成的。這充分證明當前需求本質上是由模型能力驅動的,而不是以價換量的價格驅動。從全球市場看,包括 Anthropic 在內的頭部廠商也呈現類似特徵——每一次模型能力提升、智能上界突破,都會幫助模型不斷打開高價值場景的滲透,從而支撐價格和需求的雙向同步增長。所以這一輪以 Claw Plan 為代表的 Agent 產品線增長,不是低毛利以價換量的階段性現象,而是高質量模型在真實場景中逐步建立價值後帶來的自然放量。

從商業化驗證來看,如果看大盤,Agent 產品的收入貢獻確實還在早期階段。但值得興奮的是,付費轉化和麪向開發者場景的使用深度已經出現非常多積極信號。尤其在複雜任務場景中,用户已經從新鮮感驅動的嘗試性使用轉向持續性依賴,調用頻次和使用時長都有顯著攀升。從 Coding 自然延伸到 Copilot 的用户,高頻需求集中在開發效率提升和自動化流程處理。

除了 C 端開發者場景,下半年開始更大的機會應該在企業級市場。底層邏輯很簡單——Agent 的核心是 7×24 小時的長鏈任務架構,真正高粘性的 7×24 場景在企業級市場中更多,因為企業內部存在大量可被自動化、可持續調用的業務流程。

從中長期來看,隨着模型能力持續提升和使用門檻不斷降低,Agent 會從工具形態慢慢變成更通用的生產力形態,覆蓋更復雜和長期的任務場景。總結來説,Agent 當前還在商業化早期放量階段,但已驗證了真實需求和付費意願,無論 C 端開發者還是企業級應用都有非常廣闊的增長潛力。

Q:公司在制定價格時,更多是基於成本推動加成定價,還是基於模型能力提升給客户帶來的價值定價?未來利潤率趨勢如何?

A:核心取決於我們怎麼看待 token 經濟的終局。token 最後會變成像手機流量一樣完全標準化的 commodity,還是走向分層結構化的商品?從公司角度,我們認為未來 AI 價格體系會走向 token 分層,所以定價邏輯肯定不是簡單的成本加成。

市場未來會自然分成兩類 token 需求。一類是基於簡單對話、消費級的低複雜度推理和問答,這部分 token 未來會走向低價甚至最終免費,商業模式可能走向廣告模式。另一類是高複雜度、高可靠性、真正能解決生產力問題的高質量 token,對應更強的模型能力,具備明確的價值創造能力。這部分塔尖 token 將讓提供方具備持續的定價權和議價能力。

從公司定價策略來看,確實有存儲等成本上漲的考慮,但更核心的還是基於模型能力帶來的價值定價。我們整體戰略聚焦高質量高智能水平的塔尖模型,從全球對標來看,商業化路徑更像 Anthropic——通過持續提升模型智能上界,在高價值場景中建立定價權,而不是量大管飽的低價競爭。塔尖需求對價格敏感度更低,對效果和穩定性要求更高。

關於成本傳導,算力成本變化對模型端定價有一定傳導,但不是簡單線性關係。一方面,大模型公司普遍在採取極致推理優化提升效率,單位 token 成本持續下降;另一方面,在高價值場景下客户更關注 ROI 而非單純 token 價格,就像今天 Coding 產品定價很高,美國主流大廠用量依然很好。因此成本更多是一個底線約束,而不是決定定價的核心考量。

以開發者市場為例,美國軟件開發者約 400 多萬人,年薪中位數約 13 萬美元,一線模型廠商高端訂閲價格平均約 200 美元/月,一個開發者同時訂閲 2-3 個模型,約花年薪 5% 在模型上,在這個價格水平下海外頭部閉源模型 API 仍供不應求。而中國信息技術從業人員平均薪資約 3.3 萬美元,按同樣 5% 收入佔比測算,對應月付費約 138 美元,而目前國內頭部模型廠商定價遠未達到這個水平,提升空間非常大。同時,頭部模型公司之間不是存量博弈關係,用户存在大量重合,説明模型做到最頭部後核心競爭不是價格而是能力邊界和使用體驗。

Q:提價的同時 token 調用量和開發者規模仍在快速增長,這種量價齊升的狀態背後是模型能力驅動還是生態與客户結構的變化?該趨勢是否可持續?

A:量價齊升當前不是短期階段性結果,而是由模型能力提升和需求側變化共同驅動的。

從需求側來看有兩個重要變化。第一是應用入口的擴展。最早我們在 2024 年底開始卡位 Coding,當時即使海外 Anthropic 也遠未完成市場教育,大家認為 Coding 只是少數專業程序員的利基市場。但這兩年,Coding 已從利基賽道變成企業級軟件市場的入口。隨着模型智能上界提升,越來越多企業把 Coding 作為切入點,向內部更廣泛的開發需求延伸,包括自動化腳本、數據處理、系統集成等泛開發任務都用 Coding 範式完成,這顯著擴大了 token 的使用場景和調用規模。

第二是使用人羣的橫向破圈。早年只有專業程序員在使用,後來企業內部產品經理、數據分析師、BI 層面的泛開發者都在用。現在隨着 Agentic Engineering 新範式出現,普通用户即使沒有軟件開發背景,也可以通過自然語言完成複雜任務。這本質上是模型能力提升帶來的門檻下降,讓開發能力從少數人手中逐步釋放。

這兩個變化同時發生並相互強化,共同導致需求側容量擴張。從客户實際情況看,國內頭部互聯網公司和海外主流平台都在接入我們的模型並逐步提升使用深度。這類客户對效果和穩定性要求很高,他們的選擇反映核心驅動力是模型智能上界而非價格。在這樣的背景下,價格攀升並沒有反向抑制需求,而是和需求擴張同時發生——因為越往塔尖做高質量 token,對應的使用場景本身就在不斷往更高價值、更高複雜度的任務延伸,而這類場景對價格敏感度本來就較低,對能力依賴越來越強。

從持續性來看,一方面模型能力向更復雜維度推進,新使用場景不斷被打開;另一方面企業級應用還在早期階段,用户數和單用户使用深度都有進一步提升空間。量價齊升本質上是基礎模型從工具走向生產力基礎設施過程中的自然結果。

Q:近期價格上調背景下,客户對 token 使用量的敏感度如何?價格提升對 token 消耗增長是否有階段性壓抑?

A:從我們自己的歷史數據看,可以分 2025 年和 2026 年兩個階段。2025 年我們還沒有做漲價動作,打響漲價第一槍是 2026 年春節。但回過頭看,2025 年推出 Coding Plan 時我們的 API 定價已經是國內模型中相對偏高的,在這個較高價格帶寬上定價就帶來了 2025 年 3 月到年底 ARR 接近十倍的增長。

2026 年嚴格來説只有半個季度——從 2 月份春節開始連續幾個模型提價,累計提了 83%。但這半個季度提價之後,無論 Claw Plan 還是原來的 Coding 產品都保持了極強增長,Claw Plan 推出兩天就有 10 萬用户,20 天 40 萬用户,而我們 Coding Plan 存量用户是 24 萬。

所以從數據上看,價格上調背景下 token 消耗量和用户增長都保持在快車道上,價格因素並未構成特別大的阻礙,核心還是需求結構的變化。原因有三:第一,token 本身會分層,我們面向的主要場景不是低複雜度標準化使用場景,在那些場景中價格是敏感變量,而在高複雜度高價值場景中客户更關注 ROI 而非單一 token 價格,提價不會抑制這類需求。第二,持續提價基礎上,核心大 KA 客户包括十大互聯網公司中的九家並未出現價格對調用量的抑制。背後原因是 token 作為計量智能輸出的單位,每個 token 的智力水平更高、智能上界更高時,同樣 100 萬 token 能完成的任務複雜度和價值不斷提升,這本身對應價格中樞具備上移可能性。第三,從更長期看,越往塔尖做,面向的場景在不斷解鎖,應用邊界不斷擴展,高價值 token 的佔比顯著提升。

總結來看,價格上漲會產生分層效應——對低價量大場景有抑制,但在高價值場景中需求對價格的敏感度相對有限。模型能力提升帶來的需求擴張效應遠遠顯著於價格因素帶來的潛在抑制,這也是我們看好接下來一年 token 消耗和 ARR 持續增長的核心原因。

Q:公司提出迴歸基模的策略,在文本模態和 Coding 領域取得不錯進展,這在行業內是非共識打法,背後的戰略取捨思考是什麼?

A:這個問題並不是一個完全的二選一關係。從未來 2 到 3 年戰略核心重點看,我們會更加傾向於標準化 API 能力的持續放量。

首先從商業模式演進看,在模型能力和客户認知還不夠成熟的階段,行業普遍通過更高附加值的產品化或解決方案來封裝模型,匹配客户需求並提升變現效率。但這背後的前提是當時 API 本身的規模還沒完全起來,單位經濟模型還沒充分釋放。隨着模型能力持續提升和調用規模快速放大,API 層級的單位經濟性正在快速變化。一旦調用量進入更高量級,API 本身的毛利空間和盈利能力可以被顯著釋放。在這種情況下,專注於提供標準化但高質量的 token 能力本身就可以實現非常高效的規模化。

第二,從當前策略看,我們並不是在弱化本地化部署業務,而是在重新定義它的角色。我們會越來越把企業級智能體、企業級通用大模型服務視為擴客或切入場景的入口,通過解決具體業務問題幫助客户快速落地,後續通過交叉銷售或能力開放,引導客户逐步從購買解決方案轉向直接調用底層 token 能力。

第三,從更長期技術和經濟趨勢看,雲端大參數模型在參數規模和推理效率上持續提升,單位人力成本、算力成本不斷下降,能力邊界不斷拓展,本地模型的經濟性會持續受到挑戰。更底層的原因是整個行業正在經歷智能輸出變革,高質量模型能力逐步在雲端聚集並通過標準化接口對外輸出。誰能提供穩定高質量的 token 供給,誰就更有可能佔據產業鏈核心位置。

因此我們認為未來 2-3 年開放平台及 API 業務會成為收入規模和利潤釋放的核心載體,Agent 解決方案會是獲客和場景驗證的重要補充,兩者不是替代關係,重心會逐漸向標準化能力輸出傾斜。

Q:公司如何維持持續領先的研發節奏?以能力上界為導向的優勢在未來 1-2 年如何保持?

A:當前在智能上界和模型迭代節奏上的領先並不是單點突破的結果,而是幾項長期能力共同驅動的。

首先是戰略上的長期專注。我們從最開始就以 AGI 作為長期目標,在技術路徑上保持持續投入和聚焦。整體以技術進展為主線自然延伸出商業化路徑,而不是先定義商業模式再反向約束技術路線。這種技術驅動方式使得關鍵模型能力突破能保持連續性和前瞻性。

第二是人才體系的長期積累和獨特優勢。核心團隊在大模型方向有深厚學術背景和長期研究積累,同時與國內頂尖大學及學界保持緊密聯繫,能夠在早期吸引並培養一批最優秀的青年 AI 人才。產學研的深度融合讓我們保持源源不斷的人才梯隊補充。

第三是先發優勢帶來的技術複利。隨着模型能力持續提升以及在數據、訓練方法和工程體系上的長期積累,研發效率本身在提升,包括模型優化迭代週期以及小版本更新頻率都在逐步加快。

從可持續性來看,未來 1-2 年這種領先優勢仍具備延續性。一方面當前大模型能力邊界仍在快速拓展,技術曲線不是保持陡峭上揚而是在加速。另一方面,領先廠商之間的差距更多體現在工程體系、數據積累和人才密度等系統性能力上,這些能力通常具有較強的持續性。綜合來看,當前的領先是基於長期投入形成的體系化能力。整體戰略上,我們更接近於像 Anthropic 這樣的公司,以模型能力上界和技術驅動為核心,而不是以價格和單一產品形態為競爭重點。

<正文結束>

本文的風險披露與聲明:海豚研究免責聲明及一般披露