笔者在今年3月撰写了一篇名为《“最美的整合”:从Vision Pro推演苹果LLM生态建设》的文章,结尾大致预测了苹果人工智能可能的呈现方式。在WWDC 2024开幕演讲的演示中,印证了我此前描述的大部分内容。人工智能最终以符合苹果设计的方式出现在了WWDC2024上。现在,绝大多数AI早期使用者正在脱离日常AI使用的范围,开始部署AI Agents,开发AI工作流。但在大多数情况下,普通人还完全用不到这些更复杂的AI功能和工具。这也就意味着,Apple Intelligence的发展方向,面向了更多对AI没有特殊要求,但有了AI会高效解决日常事务的普通人。不论是WWDC的开场演讲,还是之后的博客文章和课程周的部分课程,苹果几乎将“AI for the rest of us”演绎到了极致。苹果的高性能设备作为本地人工智能的核心驱动单元,相对开放的API让开发者有能力将自己的应用接入Apple Intelligence,私有云协助整理用户内容并确保隐私,全新的Siri将AI功能在使用体验层面做到最贴近用户日常使用数码设备的习惯。完整的后端生态和优雅的前端设计依旧很好地担当了苹果技术壁垒的职能,苹果用户也依旧可以享受“几乎”只存在于苹果生态中的“独家体验”。而将Apple Intelligence推向前台,成为用户身边最佳AI助理的核心,就是面向边缘端,部署在边缘端的本地小语言模型(Small Language Model,以下简称小模型)。
什么是边缘小模型
自2022年开始的新一场AI浪潮,首先映入广大群众眼帘的新词汇,就是“大语言模型”(Large Language Model,下文简称大模型)。大模型具有大参数和大体积的特点,代价就是需要性能强大的基础设施才能运行。在产业和学界的共同作用下,在大模型基础之上推动个人化AI很快提上日程,但受限于硬件规格的物理限制,能够融入普通人日常设备的人工智能工具不论体积还是所需资源都非常紧张,这自然提醒了研究者和开发者们需要开发更小型的AI模型。“小语言模型”就是在这样的背景下诞生的。目前已经发布的小模型拥有约10亿~30亿参数,内存需求也控制在手机、平板电脑和笔记本电脑上较为常见的8GB,对于处理性能的要求则更低,只需要保证内存够用,4年前的手机芯片也能够让小模型发挥其作用。所以,尽管小模型并不一定用于边缘设备,但由于其小巧的特性,还能在没有互联网的情况下继续工作,使其非常适用于各类硬件水平达标的边缘设备。WWDC在最关键的用户应用场景层面证明了小模型的可行性,但由于学界和外界都一直存在一种声音,即:未来只需要一个全能的大模型就能处理所有需求(也就是绝大多数人认为的通用人工智能AGI),因此很多分析人士忽视了人工智能模型通过设计能够尽早在手机、平板电脑和笔记本电脑等边缘设备实现良好运作的工业合理性。所幸的是,小模型已经发展了相当长的时间,普通用户现在都能够通过开放社区自行获取本地小模型用于日常生活和工作。像是微软和谷歌也都在近两个月相继发布了Phi-3和Gemma小模型,用户可以在AI社区中找到并获取它们。当然,用户还需要在本地部署连通小模型的知识库才能让其发挥相对完整的能力。相较之下,苹果则能够倾团队之力将用户数据进行打通,并针对使用场景对小模型进行调优,覆盖更广大的用户场景。