--- title: "OpenAI 研究负责人 Noam Brown 认为 AI‘推理’ 模型本可以在几十年前就问世" description: "诺姆·布朗(Noam Brown),OpenAI 的研究负责人,表示如果采用正确的方法,人工智能推理模型可能在 20 年前就已经出现。他强调了推理在人工智能中的重要性,特别是在具有挑战性的情况下。布朗讨论了预训练和测试时推理在人工智能发展中的互补性。他还强调了学术界与人工智能实验室之间合作的潜力,特别是在人工智能基准测试等领域,他认为这可以显著改善当前人工智能评估的状态" type: "news" locale: "zh-CN" url: "https://longbridge.com/zh-CN/news/232472204.md" published_at: "2025-03-19T21:17:06.000Z" --- # OpenAI 研究负责人 Noam Brown 认为 AI‘推理’ 模型本可以在几十年前就问世 > 诺姆·布朗(Noam Brown),OpenAI 的研究负责人,表示如果采用正确的方法,人工智能推理模型可能在 20 年前就已经出现。他强调了推理在人工智能中的重要性,特别是在具有挑战性的情况下。布朗讨论了预训练和测试时推理在人工智能发展中的互补性。他还强调了学术界与人工智能实验室之间合作的潜力,特别是在人工智能基准测试等领域,他认为这可以显著改善当前人工智能评估的状态 诺姆·布朗(Noam Brown),OpenAI 的 AI 推理研究负责人表示,如果研究人员 “知道 \[正确的\] 方法” 和算法,像 OpenAI 的 o1 这样的 “推理” AI 模型可能在 20 年前就能问世。 布朗在周三于圣荷西举行的英伟达 GTC 大会的一个小组讨论中表示:“有各种原因导致这个研究方向被忽视。我在研究过程中注意到,好的,缺少了一些东西。人类在困难情况下采取行动之前会花费大量时间思考。也许这在 AI 中会非常有用。” 布朗是 o1 的主要设计者之一,该 AI 模型采用了一种称为测试时推理(test-time inference)的技术,在回应查询之前进行 “思考”。测试时推理涉及对运行模型进行额外计算,以推动一种 “推理” 形式。一般来说,所谓的推理模型在准确性和可靠性上优于传统模型,特别是在数学和科学等领域。 然而,布朗强调,预训练——在越来越大的数据集上训练越来越大的模型——并不是完全 “死了”。包括 OpenAI 在内的 AI 实验室曾经将大部分精力投入到扩大预训练上。现在,他们根据布朗的说法,在预训练和测试时推理之间分配时间,这两种方法被布朗描述为互补的。 在小组讨论中,有人问布朗,考虑到学术机构普遍缺乏计算资源,学术界是否有希望进行与 OpenAI 等 AI 实验室规模相当的实验。他承认,随着模型变得越来越计算密集,近年来这变得更加困难,但学术界可以通过探索需要较少计算的领域(如模型架构设计)来产生影响。 布朗表示:“\[这\] 是前沿实验室 \[与学术界\] 之间合作的机会。毫无疑问,前沿实验室正在关注学术出版物,并仔细思考,好的,这是否提出了一个有说服力的论点,如果进一步扩大,这将非常有效。如果论文中有这样的有说服力的论点,你知道,我们会在这些实验室中进行调查。” 布朗的评论正值特朗普政府对科学拨款进行大幅削减之际。包括诺贝尔奖得主杰弗里·辛顿(Geoffrey Hinton)在内的 AI 专家批评这些削减,称这可能威胁到国内外的 AI 研究工作。 布朗指出,AI 基准测试是学术界可以产生重大影响的一个领域。他说:“AI 基准的现状真的很糟糕,而这并不需要大量计算。” 正如我们之前所写,今天流行的 AI 基准往往测试一些深奥的知识,并且给出的分数与大多数人关心的任务的熟练程度相关性较差。这导致了对模型能力和改进的广泛混淆。 ### Related Stocks - [OpenAI.NA - OpenAI](https://longbridge.com/zh-CN/quote/OpenAI.NA.md) ## Related News & Research | Title | Description | URL | |-------|-------------|-----| | AI 巨頭競爭愈演愈烈 OpenAI 及 Anthropic 掌舵人印度峯會拒牽手 | 在印度新德裡舉行的人工智慧高峰會上,OpenAI 執行長 Sam Altman 與 Anthropic 執行長 Dario Amodei 拒絕牽手,展現出兩家公司之間的競爭。Altman 表示沒有牽手並非故意,而是拍攝過程中的混亂。兩家公司 | [Link](https://longbridge.com/zh-CN/news/276408352.md) | | 阿特曼出席 AI 峯會 強調全球亟需監管措施 | 阿特曼在 AI 全球峯會上強調,全球亟需對快速發展的人工智慧技術進行監管。他指出,AI 的民主化是人類繁榮發展的關鍵,集中技術於單一公司或國家可能導致災難。他呼籲建立類似國際原子能總署的組織,以協調 AI 事務並應對新出現的問題,如失業和網 | [Link](https://longbridge.com/zh-CN/news/276395979.md) | | OpenAI 夥塔塔集團印度拓 AI 基建 有望建成印度最大數據中心 | OpenAI 與印度塔塔集團合作開發 AI 基礎設施,計劃建設印度最大數據中心。TCS 將建造一座 100 兆瓦的數據中心,未來可能擴展至 1 吉瓦,預計投資在 350 億至 500 億美元之間。OpenAI CEO 奧特曼正在印度參加 A | [Link](https://longbridge.com/zh-CN/news/276312385.md) | | DeepSeek 灰度測試新一代模型,野村: 訓練與推理成本下降或緩解盈利壓力 | DeepSeek 正在進行新一代模型的灰度測試,預計本月中旬推出 V4 模型。該模型在上下文長度和核心能力上有顯著提升,野村證券認為 V4 將通過底層架構創新推動 AI 應用商業化,而非顛覆現有價值鏈。V4 的發布預計將顯著降低訓練與推理成 | [Link](https://longbridge.com/zh-CN/news/275723457.md) | | 全球人工智慧峯會呼籲打造安全可信強健 AI | 在新德裡舉行的全球人工智慧峯會閉幕,86 個國家及 2 個國際組織發布聯合宣言,呼籲發展安全、可信且強健的 AI。會議討論生成式 AI 的影響,強調節能 AI 系統的重要性,並提出自願性倡議以整合國際 AI 研究能力。宣言指出,AI 的益處 | [Link](https://longbridge.com/zh-CN/news/276518719.md) | --- > **免责声明**:本文内容仅供参考,不构成任何投资建议。