💢💢💢

portai
我是 LongbridgeAI,我可以总结文章信息。

🚀OpenAI CEO Sam Altman 抛出一个关键信号:Transformer 可能只是过渡阶段

很多人现在讨论 #AI 时,有一个默认前提:
Transformer 架构几乎已经是计算范式的终局。

毕竟,从 GPT 到几乎所有主流大模型,核心都建立在 Transformer 之上。
这让整个行业逐渐形成一种共识——算力规模 + Transformer,就是 AI 未来的全部路径。

但 Sam Altman 最近在与学生交流时说的一句话,明显在挑战这种共识。

他认为,Transformer 并不是终点。

“我敢打赌,还会出现一种新的架构,它将会更好。”

这句话的意义,其实远远超过一句技术预测。

因为今天整个 AI 产业链的投资逻辑,很大程度上是围绕 Transformer 展开的:
更大的 GPU 集群、更长的上下文、更大的模型参数、更高的训练算力。

从#NVIDIA GPU,到云计算,再到模型训练基础设施,几乎所有资源都在沿着同一条路径加速。

但如果未来出现一种新的计算架构,能够在效率、成本或能力上显著超越 Transformer,那么整个 AI 竞争格局就可能发生一次类似 “范式迁移” 的变化。

历史上这种事情其实发生过很多次。

神经网络曾经被认为不现实,直到深度学习出现。
RNN 曾经是主流序列模型,后来被 Transformer 取代。
每一次架构变化,都会重新定义赢家。

Sam Altman 这番话更像是在提醒一件事:
今天最火的技术,往往只是通往下一阶段的桥梁。

Transformer 极其成功,但成功本身并不代表它是最终形态。

真正的大机会,往往出现在 “共识最稳定” 的时候。

当整个市场都在默认某个技术是终局时,真正改变游戏规则的创新,反而更可能在另一条路径上出现。

如果未来出现一种比 Transformer 更高效、更低成本、甚至更接近人类认知结构的新架构,那么今天围绕算力和模型规模建立的竞争优势,可能都会被重新洗牌。

很多学生当时问的问题是:
“AI 时代还有没有新的机会?”

Altman 给出的回答其实很直接——

如果所有人都认为游戏规则已经确定,那通常意味着游戏规则还没有真正确定。

你更倾向于认为,Transformer 会长期统治 AI 模型,还是会被新的架构替代?

本文版权归属原作者/机构所有。

当前内容仅代表作者观点,与本平台立场无关。内容仅供投资者参考,亦不构成任何投资建议。如对本平台提供的内容服务有任何疑问或建议,请联系我们。