
AI 大厂 “AGI 预言” 突然增多,这只是炒作吗?

宾夕法尼亚大学沃顿商学院教授 Ethan Mollick 认为,对业内人士的激进言论保持警惕是必要的,但近期 AI 在达模型、细分领域智能体、模态能力方面的进展显著。我们最应该担心的,不是各 AI 大厂的时间表是否正确,而是是否已经为即将到来的变革做好准备。
近期,人工智能领域出现了一种引人注目的现象:多家 AI 巨头公司的知名研究人员纷纷预测,超级智能 AI 系统即将在短期内出现。
这些观点认为,AGI 将在未来 1-2 年内实现,并深刻改变社会。这种激进的预测带来了质疑声:这是否只是一场炒作?
对此,宾夕法尼亚大学沃顿商学院教授 Ethan Mollick 近日发文指出,对这些业内人士的言论保持警惕是必要的。他们可能出于筹集资金、抬高股票估值等动机做出大胆预测。此外,当前 AI 技术本身也存在局限性。即使 AGI 实现,人类社会采用和适应这项技术的速度可能被高估。
尽管如此,Mollick 也指出,近期 AI 领域的一些进展确实令人瞩目。AI 在狭窄智能体、模态能力方面的进展显著。我们最应该担心的,不是各 AI 大厂的时间表是否正确,而是是否已经为即将到来的变革做好准备。
Mollick:对 AGI 的大胆预测保持警惕
一些 AI 大厂的知名研究人员近期纷纷发表言论,预测短期内将出现超级智能 AI。
Mollick 教授对此表示警惕,认为这些大胆预测可能背后存在筹集资金和抬高股票估值的动机。他指出,技术人员并非预言家,历史上许多技术预测往往被证明过于乐观。
此外,当前 AI 技术本身也存在局限性,依然具有不稳定性。这种 “参差不其的能力” 是当前 AI 系统的核心特征,难以轻易消除:
“尽管当今的大型语言模型功能令人印象深刻,但它们本质上仍然是不稳定的工具——在某些任务上表现出色,但在看似更简单的任务上却会犯错。”
Mollick 认为,即使假设研究人员关于未来一两年内实现 AGI 的说法是正确的,他们也可能高估了人类采用和适应这项技术的速度。
“组织变革需要很长时间,工作、生活和教育体系的变革则更为缓慢。”
未来的洪流:技术与社会的双重考量
尽管如此,近期 AI 领域的一些进展确实令人瞩目。OpenAI 的 o3 模型在多项测试中首次击败人类专家,包括研究生级谷歌无法解答的问答测试 (GPQA)、前沿数学题和 ARC-AGI 流体智力测试。
随着 AI 能力的提升,专业或细分领域的 AI 智能体的实用性日益凸显。Mollick 提到谷歌的 Gemini 与 Deep Research 项目,该 AI 能够在几分钟内编写出一份 17 页的研究报告。Mollick 教授亲自测试后认为,虽然不如最优秀的人类,但比很多人类撰写的报告都要好。

“专业或细分领域的 AI 智能体现在是真正的产品,而不是未来的可能性。已经有很多编码代理,你可以使用实验性的开源智能体进行科学和金融研究。”
除了智能体的崛起,AI 在多模态能力方面的进展也引人注目。随着技术的发展,AI 的上下文记忆能力和图像生成能力都有了显著提升。
Mollick 举例说,如今多个图像创建工具都能准确地生成"水獭在飞机上使用 wifi"这样复杂的场景,而这在不久前还是难以实现的。视频生成方面的进步同样显著。

变革已来,我们是否做好准备?
鉴于这一切,我们不禁思考:是否应该如何认真对待 AI 大厂关于智能洪流即将来临的说法?
Mollick 认为,我们必须认真对待当前的技术进展。我们最应该担心的不是各 AI 大厂的时间表是否正确,而是是否已经为即将到来的变革做好准备。
“这不仅仅关乎技术本身;还关乎我们如何选择塑造和部署它。这些问题不是 AI 开发者可以或应该单独回答的。”
他呼吁,不仅 AI 开发者,还包括组织领导者、员工和其他利益相关者,都应该开始思考如何塑造和部署 AI 技术,以确保它成为进步而非破坏的力量。
“开始进行这些讨论的时机不是在水位开始上升之后——而是现在。”

