
過去 24 小時 AI 和技術重要發展總(2025 年 10 月 24 日至 25 日)

1. 模型發佈與更新
• 中國 Genos 模型發佈:BGI-Research 和浙江實驗室聯合推出 Genos,這是全球首個可部署的基因組基礎模型,參數達 100 億,支持基因組數據分析和生物醫學應用。該模型強調高效計算和數據隱私,已開源部分代碼。
• GLM 4.6 模型發佈:中國團隊推出 GLM 4.6,支持 200k token 長上下文記憶,能自主編寫/修復代碼、生成幻燈片、儀表盤和文檔,比 ChatGPT 快 4 倍且更廉價(輸入令牌成本約 1 美元/百萬)。完全免費開源,已被視為 2025 年最大 AI 突破之一。
• Mem-α模型發佈:斯坦福 AI 實驗室與 Google DeepMind 合作,使用強化學習首次應用於內存管理系統,解決大語言模型內存瓶頸問題,提高效率 25-100 倍。該模型適用於長上下文推理,已開源。
• SpikingBrain 模型發佈:中國團隊推出 “腦狀” AI 模型 SpikingBrain,專為長文本處理設計(如法律檔案、醫療記錄),速度比標準系統快 25-100 倍,功耗更低,使用本土芯片。該模型僅在需要時 “喚醒”,已開源部分框架。
• DeepSeek-R1 與其他中國開放模型:DeepSeek 推出 R1 版本,擴大開源 AI 訪問;百度投資約 16 億美元(1100 億人民幣)用於雲和 AI 基礎設施;阿里巴巴推出 New Quark AI 超級應用,基於 Tongyi 模型集成多功能。
2.新論文
• AI Native Daily Paper Digest:彙集多篇新論文,包括:
◦ “Every Attention Matters”:高效混合架構用於長上下文推理,提高模型注意力機制。
◦ “BAPO”:平衡策略優化,用於 LLM 的離策略強化學習,提升穩定性。
◦ “Language Models are Injective and Hence Invertible”:探討語言模型的可逆性。
◦ “LoongRL”:強化學習用於長上下文高級推理。
◦ 其他如 “Attention Sinks in Diffusion Language Models”、“GigaBrain-0”(世界模型驅動的視覺 - 語言 - 動作模型)等。這些論文多聚焦長上下文、強化學習和多模態 AI,已在 Hugging Face 開源。
3. 開源項目
• 中國模擬 AI 芯片項目:新模擬 AI 芯片原型發佈,速度可能比 Nvidia GPU 快 1000 倍,聚焦高效計算,已開源設計框架,支持本土生產。
• Tencent AI 代碼生成項目:騰訊宣佈 50% 新增代碼由 AI 輔助生成,開源相關工具,提升開發效率。 87
• Jiu’an AI 模型應用:中國加速部署 Jiu’an 模型,用於工作安全和災害響應,開源部分 API,作為國家應急指揮 “智能大腦”。
4. 其他更新與公告
• 中國 AI 政策公告:科技部長表示將加速 AI 發展,尋求突破;加強芯片資源設計、AI 治理,並推動 AI 成為國際公共產品。同時,中國全球 AI 政策軌跡強調風險-based 監管(如強制倫理委員會)和 AI 出口。
• 生態動態:中國開源生態(如 DeepSeek、Qwen、Kimi)在性能上超越 ChatGPT/Claude/Gemini,Qwen 增長 68%,DeepSeek 增長 20%。阿里巴巴雲推出 “Aegaeon” GPU 池化系統,節省 82% 資源。
• 全球進展:Anthropic 發佈 Claude“skills” 功能;Microsoft 在 Excel/Word 集成 AI;Google Video 3.1 提升文本到視頻控制;Reflection AI 融資 20 億美元用於開源前沿 AI 實驗室。
本文版權歸屬原作者/機構所有。
當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。

