
🔥 🔥 Apple 不想做聊天机器人,但 Siri 正在变成 ChatGPT
这次的变化不在功能,而在形态。
Siri 过去是一个 “入口”,
现在开始变成一个 “应用”。
据目前信息,Apple 计划在 WWDC(6 月 8 日)发布新版 Siri,并在秋季随 iOS 27 上线,界面将更接近 ChatGPT 这种对话式形态。
这意味着一件事:
Siri 不再只是语音助手,而是在向通用对话入口演进。
更关键的是底层。
Siri 将接入 Google 的 Gemini 模型,Apple 每年支付约 10 亿美元。
这其实非常反直觉。
一家公司以 “软硬件一体化” 和 “自研” 为核心竞争力,
在最关键的一层能力上选择外部模型。
这说明两点:
第一,当前大模型能力差距仍然存在。
第二,时间窗口比 “完全自研” 更重要。
再看功能层面的变化。
新版 Siri 可以直接读取:
邮件
短信
笔记
然后基于这些内容给出回答。
这本质上是把 AI 从 “通用问答”,推进到 “个人数据理解”。
一旦这一层打通,用户粘性会发生变化。
因为这不再是一个工具,而是一个长期上下文的入口。
也正是这里,Apple 的策略开始显现出矛盾。
一方面,它强调不想做聊天机器人。
另一方面,它正在把 Siri 改造成一个对话式 AI。
这不是语言上的冲突,而是定位上的调整。
Apple 过去做的是 “控制体验”,
现在不得不进入 “参与智能”。
问题也随之出现:
当核心模型依赖外部供应时,
谁在定义体验的边界?
而当 Siri 可以读取你的全部个人数据时,
隐私与能力之间的平衡会变得更加敏感。
所以这件事的关键,不在于界面像不像 ChatGPT,
而在于:
Apple 是否愿意把 “智能的核心权力”,部分交给别人。
你更倾向于认为,这是过渡阶段的权宜之计,还是 Apple 长期策略的转向?
本文版权归属原作者/机构所有。
当前内容仅代表作者观点,与本平台立场无关。内容仅供投资者参考,亦不构成任何投资建议。如对本平台提供的内容服务有任何疑问或建议,请联系我们。




