作者:周源/华尔街见闻AI 已成为缺乏技术创新的智能手机行业走向 “新生” 的新技术焦点。最早在端侧实现 AI 语音助手 “Siri” 的苹果公司,进入 2024 年以后,一改在最近两年有意忽视 AI 的做派,开始频频向 AI 递送秋波。最近,苹果公司在其新款 MacBook Air 新闻稿中,明确提到了这是一款 “用于 AI 的全球最佳消费级笔记本电脑”,这个提法在最近两年非常罕见。此前,苹果似乎有意回避 “AI” 的提法,常常用 ML(机器学习:Machine Learning)代替 AI。与国内一众同行不一样的地方在于,苹果推动 AI 技术在端侧的落地,采用 “论文先行” 的方式。3 月,苹果 Siri 团队发表了一篇名为《利用大型语言模型进行设备指向性语音检测的多模态方法》的论文,主要讨论在 2023 年将 “Hey Siri” 简化成 “Siri” 后,再简化掉 “Siri”,从而将与苹果手机的人机对话做到无缝衔接,自然而然。这只是苹果推动 AI 在端侧落地的一个微小动作,毕竟 Siri 在 2011 年就推出了。真正能体现苹果在端侧 AI 技术布局和成果的是 4 月 24 日的那件事:苹果推出 OpenELM。这是一个全新的开源大型语言模型(LLM)系列,能完全在单个设备上运行文本生成任务,无需连接云服务器。也就是说,OpenELM 就是眼下国内智能手机商说的 AI 手机在端侧的大模型部署。最近有消息持续放出,主要涉及今年 6 月的苹果 WWDC(苹果全球开发者大会:Worldwide Developers Conference)推出的 iOS 18,会内置哪些端侧 AI 功能。进入 2024 年,苹果开始真正启动端侧 AI 战略。虽然苹果从未这么描述过,但就现实角度看,苹果实际上也开始 “AII in AI”。跟着微软推动 AI 模型瘦身作为智能手机的全新产品定义者、移动互联网产业的开创者,苹果公司,在软件层面的受关注度不如硬件高,但实际上重要性丝毫不亚于硬件技术迭代。4 月 24 日,苹果在全球最大的 AI 开源社区——Hugging Face 发布 OpenELM(Open-source Efficient Language Models)系列模型。这是苹果 AI 赛道最近一年内最重要的举措。OpenELM 共有 8 个模型:4 个预训练模型和 4 个指令调整模型,参数量分别为 2.7 亿(0.27B)、4.5 亿(0.45B)、11 亿(1.1B)和 30 亿(3B)。所谓参数,是指 LLM(大语言模型:Large Language Model)中人工神经元之间的连接数。通常,参数越多,则性能越强、功能越多。从参数规模上不难看出,OpenELM 模型实际上就是为端侧 AI 而生。什么是预训练?这是一种是 LLM 生成连贯文本的方法,属于预测性练习;指令调整则是让 LLM 对用户的特定请求做出相关性更强的输出的方法。苹果 AI 团推发表的论文指出,OpenELM 模型基准测试结果在配备英特尔 i9-13900KF CPU 和英伟达 RTX 4090 GPU、运行 Ubuntu 22.04 的工作站上运行;同时,苹果也在配备 M2 Max 芯片和 64GB RAM、运行 MacOS 14.4.1 的 MacBook Pro 上做基准测试。OpenELM 模型的核心优势是采用的层级缩放策略,这种策略通过在 Transformer 模型的每一层中有效分配参数,从而显著提升了模型的准确率。根据最近的测试结果统计结果显示,OpenELM 在 10 次 ARC-C 基准测试中的得分率为 84.9%,在 5 次 MMLU 测试中的得分率为 68.8%,在 5 次 HellaSwag 测试中的得分率为 76.7%。这不是苹果在 AI 软件上的首次动作。2023 年 10 月,苹果低调发布了具有多模态功能的开源语言模型 Ferret。与去年相比,4 月 24 日的模型,技术框架相对更完整,还涵盖数据整理、模型构建与训练/调整与优化。不知是巧合还是有别的原因,4 月 23 日,微软也发布了可完全在智能手机(iPhone 15 Pro)上运行的 Phi-3 Mini 模型:参数规模 3.8B(38 亿),性能可与 Mixtral 8x7B 和 GPT-3.5 等模型相媲美。更重要的是,无论是 Phi-3 Mini 模型,还是 OpenELM 模型,都能完全在智能终端的端侧运行,无需联网。这就说明,苹果正式开始在端侧推动部署 AI LLM,其参数最小模型只有 0.27B,这与国内智能终端的端侧 LLM 相比,就参数量来说,只有不到 10%。国内为了能做到在端侧本地化运行 LLM,通常依靠提高 LLM 压缩率,以实现在有限的内存空间(12GB-24GB)“塞入” LLM,而苹果直接减小了 LLM 的参数规模,但训练和推理精度并没有随之也跟着降低。虽然在 3 月,苹果推出了参数规模高达 30B 的 MM1 大模型(多模态大型语言模型)——Forret 模型。但从苹果开源的 LLM 大模型框架看,苹果在大力推动 LLM 的 “瘦身计划”。前所未见的动作意向不明很明显,从 2023 年 10 月以来,苹果开始推动 AI 技术在终端的落地,目标是 “让人工智能在苹果设备上本地运行”。今年 1 月苹果发表的论文《LLM in a flash:Efficient Large Language Model Inference with Limited Memory》更明显地显示苹果在向着这个目标迈进的努力。通过 OpenELM 模型,苹果展示了在 AI 领域的技术和目标框架:OpenELM 专为终端设备设计,这能优化苹果现在的多终端体验——目前展示在苹果笔电上的运行能力;其次,在小规模的 LLM 上兼顾性能和效率;第三,开源。尽管如此,苹果这些自研的 LLM 或者一些技术框架,能否会内置在今年 6 月举行的 WWDC 24 上即将推出的 iOS 18 中,目前无法明确。因为,苹果还在与谷歌和 OpenAI 接触,不排除会在 iOS 内置这些竞对的 AI 技术。外界现在很难获知苹果和谷歌以及 OpenAI 的沟通内容,也不知道苹果会和哪个公司达成 AI 技术的商业合作。除了这两家大名鼎鼎的技术公司,苹果还在和一家名为 “Anthropic” 的 AI 技术初创公司接触。苹果推动与合作伙伴的技术合作,有助于加速苹果进入聊天机器人领域(与谷歌的接触主要集中在机器人 Gemini 聊天方面)的进程,同时能规避风险。通过将生成式 AI 功能外包给另一家公司,蒂姆·库克或许能减少苹果平台的某些责任。实际上,OpenELM 模型开源之所以受到关注,除了这是苹果公司推出的 “高效语言模型”,也因为这套模型减小了参数量,能被部署在智能终端本地,无需做云端联网。这是在为 AI 手机做技术准备?AI 手机被国内产业界认为是重大的智能手机技术革命,但 AI 手机目前在体验端,用户感知较弱,与 “传统” 智能手机似乎并无区别。苹果公司在智能手机产业界的地位无需多说,所以苹果的端侧 AI 到底是什么样的?采用什么技术框架?能带来哪种惊艳的 AI 体验?这是业界的期待。值得一提的是,在 2024 苹果股东会上,库克表示今年苹果在生成式 AI 领域将有 “重大进展”。另外,苹果以往是以封闭式的生态系统 “软硬一体” 构建其商业帝国,但这次却选择了开源端侧 AI 技术框架,这是前所未见的变化。这种变化到底意味着什么?恐怕还是得等到 WWDC 24 那天揭晓。