🔥 🔥 Apple 不想做聊天机器人,但 Siri 正在变成 ChatGPT

这次的变化不在功能,而在形态。

Siri 过去是一个 “入口”,

现在开始变成一个 “应用”。

据目前信息,Apple 计划在 WWDC(6 月 8 日)发布新版 Siri,并在秋季随 iOS 27 上线,界面将更接近 ChatGPT 这种对话式形态。

这意味着一件事:

Siri 不再只是语音助手,而是在向通用对话入口演进。

更关键的是底层。

Siri 将接入 Google 的 Gemini 模型,Apple 每年支付约 10 亿美元。

这其实非常反直觉。

一家公司以 “软硬件一体化” 和 “自研” 为核心竞争力,

在最关键的一层能力上选择外部模型。

这说明两点:

第一,当前大模型能力差距仍然存在。

第二,时间窗口比 “完全自研” 更重要。

再看功能层面的变化。

新版 Siri 可以直接读取:

邮件

短信

笔记

然后基于这些内容给出回答。

这本质上是把 AI 从 “通用问答”,推进到 “个人数据理解”。

一旦这一层打通,用户粘性会发生变化。

因为这不再是一个工具,而是一个长期上下文的入口。

也正是这里,Apple 的策略开始显现出矛盾。

一方面,它强调不想做聊天机器人。

另一方面,它正在把 Siri 改造成一个对话式 AI。

这不是语言上的冲突,而是定位上的调整。

Apple 过去做的是 “控制体验”,

现在不得不进入 “参与智能”。

问题也随之出现:

当核心模型依赖外部供应时,

谁在定义体验的边界?

而当 Siri 可以读取你的全部个人数据时,

隐私与能力之间的平衡会变得更加敏感。

所以这件事的关键,不在于界面像不像 ChatGPT,

而在于:

Apple 是否愿意把 “智能的核心权力”,部分交给别人。

你更倾向于认为,这是过渡阶段的权宜之计,还是 Apple 长期策略的转向?

本文版权归属原作者/机构所有。

当前内容仅代表作者观点,与本平台立场无关。内容仅供投资者参考,亦不构成任何投资建议。如对本平台提供的内容服务有任何疑问或建议,请联系我们。