OpenAI 公布超级智能路线图:2028 年实现全自动 AI 研究员,基建投资承诺 1.4 万亿美元

华尔街见闻
2025.10.29 00:17
portai
我是 PortAI,我可以总结文章信息。

OpenAI 设定两个关键节点:2026 年 9 月实现 AI 研究实习生,能够通过消耗大量计算资源有效加速内部研究;2028 年 AI 研究员可自主完成大型研究项目。Altman 指出,到 2028 年科学研究将完全由 AI 自动化,AI 系统将能够推动科学前沿发展。截至目前 OpenAI 已承诺建设总计超过 30GW 基础设施,对应未来数年内总计约 1.4 万亿美元投资。Altman 强调,1.4 万亿美元只是起点,正讨论更宏大愿景。希望能以每周 1GW 的速度创造算力。

美东时间 28 日周二,OpenAI 宣布公司重组完成后,CEO Sam Altman 和首席科学家 Jakub Pachocki 通过一小时直播首次公开了实现超级智能的具体时间表。公司已承诺在数据中心基础设施上投入约 1.4 万亿美元,对应约 30 吉瓦的算力容量,并计划建立每周新增 1 吉瓦算力的"基础设施工厂"。

Jakub Pachocki 在直播中表示,深度学习可能在不到十年内将人类带入超级智能时代。OpenAI 设定了两个关键节点:2026 年 9 月实现 AI 研究实习生,能够通过消耗大量计算资源有效加速内部研究;2028 年 3 月实现全自动 AI 研究员,可自主完成大型研究项目。

Sam Altman 强调,为支撑这一时间表,OpenAI 正从 AI 助手转型为平台服务商,目标是让外部开发者在其平台上创造的价值超过 OpenAI 自身创造的价值。他表示,公司最终需要达到数千亿美元年收入以支撑基建投资,企业服务和消费者业务都将是重要收入来源,IPO 是最可能的融资路径。

OpenAI 的内部模型目前尚未远超已发布的版本,但对在 2026 年 9 月前实现重大飞跃非常乐观。预计到 2026 年 9 月,极有可能见证模型质量的巨大飞跃。此外,预计未来数月乃至数年内还会有重大进展。

OpenAI 并未给出发布 GPT-6 的具体时间表,但表示产品发布的节奏将不再与研究计划严格绑定。例如 GPT-5 首次将推理模型作为旗舰产品推出,这本身就是一个重大的集成性工作。但可以确定,未来六个月内、甚至更早,模型能力将有巨大飞跃。

此次直播围绕研究、产品和基础设施三大支柱展开,披露了 OpenAI 对 AGI 发展路径、安全框架和商业模式的最新思考。公司同时公布了新的组织架构,由非营利性质的 OpenAI 基金会控制公共利益公司 OpenAI 集团,前者初期持有后者约 26% 股权。

超级智能时间表:从研究实习生到全自动研究员

Jakub Pachocki 详细阐述了 OpenAI 的研究路线图,核心聚焦于深度学习的规模化训练。他指出,AGI 这个词可能低估了技术进步的潜在规模,OpenAI 内部相信距离实现超级智能——在众多关键维度上超越所有人类的系统——可能已不足十年。

OpenAI 使用"任务时间跨度"来衡量模型能力进展,即模型完成任务所需时间与人类专家的对比。当前一代模型的水平约为 5 小时,可从其在国际数学或信息学奥林匹克竞赛中与顶尖选手相媲美的表现看出。Jakub 表示,这个时间跨度将继续快速延伸,不仅源于算法创新,也来自"上下文计算"或"测试时计算"等新维度的规模化。

基于这些预期,OpenAI 设定了明确的内部目标。2026 年 9 月前,开发出能力足够强的 AI 研究实习生,能够通过消耗大量计算资源有意义地加速内部研究人员工作。更长远的目标是在 2028 年 3 月前,开发出能够自主完成大型研究项目的全自动 AI 研究员。Jakub 强调,整个研究计划围绕一个核心展开:加速科学发现和新技术发展,这将从根本上改变人类技术进步的速度。

Sam Altman 在问答环节中补充,AGI 的到来将是一个持续数年的过渡过程,而非单一时间点。他特别指出 2028 年这个节点,届时科学研究将完全由 AI 自动化,AI 系统将能够推动科学前沿发展。关于内部模型进展,他表示并未雪藏某个极其强大的模型,但有许多已开发的技术组件,当这些组件组合在一起时将带来巨大能力飞跃,预计未来六个月内模型能力将有显著提升。

五层安全框架:从价值对齐到系统性保障

随着系统能力向超级智能迈进,Jakub Pachocki 提出了一个将安全问题结构化的五层框架,从模型最核心的内部因素延伸到最外部的系统保障。

最核心的是价值对齐,关乎 AI 最根本"关心"的是什么。Jakub 解释,当系统变得极其聪明、思考时间极长、处理的问题超越人类能力极限时,给出完全无懈可击的指令会变得异常困难,因此必须依赖更深层次的对齐。第二层是目标对齐,关注 AI 如何与人互动以及遵循指令的表现。第三层是可靠性,即 AI 能否准确校准预测、在简单任务上保持可靠并在困难任务上表达不确定性。第四层是对抗性鲁棒性,侧重于 AI 能否抵御来自人类或其他 AI 对手的蓄意攻击。最外层是系统性安全,包括系统安全性、AI 可访问的数据范围、可使用的设备等外部限制。

Jakub 特别介绍了一项名为"思维链忠实度"的研究方向。这项可解释性技术的核心思想是,在训练过程中刻意让模型内部推理的某些部分不受监督,从而让这部分推理过程能够更忠实地反映模型真实所思所想。他表示,经验性结果非常理想,OpenAI 内部大量使用该技术来理解模型训练过程中的演变,并与外部合作者成功用它研究模型的欺骗倾向。

这项技术具有可扩展性,但也很脆弱,要求在算法和产品设计中划定清晰界限。例如,ChatGPT 中对思维链进行总结的功能,就是为了避免将完整思维链直接暴露给用户。Jakub 解释,如果思维链完全可见,它就会成为用户体验的一部分,久而久之就很难再对其保持无监督状态。

基建扩张计划:向万亿美元级算力投资迈进

Altman 以前所未有的透明度公开了 OpenAI 的基础设施建设计划。Altman 周二表示,截至目前 OpenAI 已承诺建设总计超过 30 吉瓦(GW)的基础设施,对应未来数年内总计约 1.4 万亿美元投资。这些承诺基于 OpenAI 目前对收入增长和融资能力的评估。

这一投资涉及众多合作伙伴,包括 AMD、博通、谷歌、微软、英伟达、甲骨文、软银等芯片、数据中心、能源和制造领域的公司。Altman 强调,1.4 万亿美元只是起点,OpenAI 正在积极讨论更宏大的愿景。

Altman 表示,OpenAI 的愿景是建立一个基础设施工厂,能够以每周 1GW 的速度创造算力,同时将成本大幅降低,目标是在设备的 5 年生命周期内,将每 GW 成本降至约 200 亿美元。他承认,实现这一愿景需要海量创新、更深入的合作、巨大的收入增长,甚至需要重新调整 OpenAI 在机器人领域的思路,让机器人帮助建设数据中心。

Altman 在问答环节中指出,要支撑 1.4 万亿美元的投资,公司年收入最终需要达到数千亿美元,"我们正处在通往这一目标的陡峭增长曲线上"。他预计企业服务将是重要收入驱动力,但也看到了从消费者获取收入的方式,不仅限于月度付费订阅,还包括新产品和设备等。

关于 IPO 计划,Altman 表示,考虑到公司巨大的资本需求和规模,IPO 是最可能的路径,但目前没有具体计划或时间表。"考虑到我们的资本需求以及公司规模,可以说这对我们而言是最可能的路径,"他说。

平台化转型:从超级助手到 AI 云生态

Sam Altman 阐述了 OpenAI 在产品层面的战略演进。他表示,过去 OpenAI 的产品形态主要是以 ChatGPT 为代表的 AI 超级助手,现在正朝着更宏大的目标演进——成为一个平台,一个其他人可以在其上构建应用和服务的"AI 云"。

Altman 引用比尔·盖茨的观点定义平台成功:当其他人基于平台创造的价值超过平台构建者自身创造的价值时,平台就成功了。这正是 OpenAI 明年的目标。他表示,凭借现有的技术、用户基础和框架,OpenAI 能够推动全世界在其平台上创建出惊人的新公司、服务和应用。

为实现平台化转型,Altman 强调了两个基础原则。首先是用户自由,如果 OpenAI 要成为供全世界不同人群使用的平台,就必须承认人们有截然不同的需求。虽然会有一些宽泛的边界,但 OpenAI 希望用户在使用 AI 时拥有大量控制权和定制化能力。他多次重申"像对待成年人一样对待成年用户"的原则,承诺随着年龄验证等机制完善,将给予成年用户更大的自由度,尤其在创作等领域会大幅放宽限制。

其次是隐私保护。Altman 指出,随着 AI 成为基础平台,人们与 AI 的互动方式非常私密,会像对医生、律师或配偶一样与之交谈,分享生活中最隐秘的细节,因此需要以不同于以往技术的方式思考隐私问题。

在产品规划上,OpenAI 描绘了一个层级架构:底层是芯片、机架、数据中心和能源等硬件基础;中间层在硬件之上训练模型并构建账户体系;应用层推出了名为 Atlas 的浏览器,并计划未来几年推出硬件设备;最令人兴奋的是顶层的生态系统,人们将利用 OpenAI 的 API、ChatGPT 内的应用、企业平台和账户构建服务。

新公司架构与基金会使命

为支持上述计划并确保服务于核心使命,OpenAI 对公司架构进行了重大调整。新架构由两部分组成:顶端是非营利性质的 OpenAI 基金会,拥有对公司的最终控制权,董事会隶属于基金会;基金会之下是公共利益公司 OpenAI 集团。

基金会将掌控 OpenAI 集团,初期持有其约 26% 股权,如果公司表现出色这一比例未来还可能增加。Altman 表示,基金会的目标是成为有史以来最大的非营利组织,利用其资源追求 AI 带来的最大化社会福祉。OpenAI 集团将更像普通公司一样运作,以便吸引研究所需的庞大资源,但依然受到与基金会相同的使命约束,尤其在安全问题上必须以使命为唯一准则。

基金会公布了两个初步重点方向。首先是投入 250 亿美元利用 AI 帮助治愈疾病,资金将用于生成数据、提供计算资源、资助科学家等。其次是 AI 韧性,这是一个比传统 AI 安全更广泛的概念。

联合创始人 Wojciech Zaremba 解释,先进 AI 的到来必然伴随风险和颠覆,AI 韧性的目标是建立一个由众多组织构成的生态系统共同解决这些问题。他用网络安全行业发展类比:互联网早期人们不敢在线输入信用卡号,而现在庞大的网络安全产业保护着关键基础设施,使人们愿意将最私密数据放在线上。同样,AI 领域也需要一个"AI 韧性层",OpenAI 基金会将帮助催生这样一个生态系统。以生物风险为例,韧性不仅包括在模型层面阻止病毒学相关查询,还包括建立快速响应机制,以便在问题发生时有效应对。