智东西
编译 | 江宇
编辑 | 漠影
智东西 6 月 11 日消息,在 WWDC 2025 的媒体采访中,苹果高管 Craig Federighi 和 Greg Jozwiak(Jaws)坦言,Siri 的下一个版本需要重新架构,原计划一年上线的功能将推迟至 2026 年。
这是苹果首次正面回应 Siri 为何难产,以及 Apple Intelligence 整体战略的节奏安排。
一、Siri 架构重建,决定全面转向 V2 架构
苹果软件工程高级副总裁 Craig Federighi 和全球市场高级副总裁 Greg Joswiak 首次系统回应了外界关切的 Apple Intelligence 战略与 Siri 演进问题。
Craig 直言不讳地承认,Siri 当前版本(即 V1 架构)根本无法满足客户的期望,也达不到 Apple 的标准,这一架构已被团队内部 " 基本放弃 "。
虽然在 WWDC 现场展示了 Siri 的一些新能力,但那并非基于新架构的产品,而是在旧有 V1 架构上推出的一次升级。
这次升级所包含的 Siri 体验改进,主要集中在以下几个方面:
更好的对话理解(语流):Siri 能更好地理解用户在对话中可能出现的错误或自我纠正。
全新的视觉界面:提供了更美观、更现代的用户界面。
支持打字与 Siri 交流:用户现在可以通过键盘输入文字与 Siri 进行交互。
更强的 Apple 产品知识:Siri 在理解和回答关于 Apple 产品相关的问题上表现得更出色。
Craig 表示,团队去年曾尝试在原有基础上继续改进,但发现 " 花了很多时间,效果仍不理想 "。
因此,真正的系统级变革将来自 V2 架构。Craig 透露 ,V2 架构是一个 " 更深度的端到端架构 ",并且并非完全从零开始,而是基于 V1 架构的积累,将其 " 扩展到整个 Siri 体验,使其成为一个纯粹的架构 "。
它意味着 V2 架构将成为 Siri 整个体验的底层基础,而不是像 V1 那样可能是一个局部或附加的解决方案。Siri 的所有智能和功能都将围绕这个核心架构来构建和运行。
首先,是通过应用程序意图调用设备上更广泛的操作。简单来说,Siri 将能更好地理解并执行那些涉及多个应用或复杂步骤的指令。
在 V2 架构下,Siri 将能识别出你的 " 应用程序意图 ",即理解你想要执行 " 查找照片 "、" 格式转换 " 和 " 发送邮件 " 等一系列任务," 更广泛地操作 " 你的设备,自动调动并串联起 " 信息 "、" 照片 "、" 文件 " 和 " 邮件 " 等多个应用或系统功能,一步到位地完成这个复杂任务,而不再仅仅是执行简单的、预设好的单一指令。
其次,是利用个人知识进行语义索引。这意味着 Siri 不仅能听懂你说的话,还能理解设备上所有私人信息。
它会利用 " 个人知识 ",即你设备上所有的数据——包括邮件、信息、备忘录、照片等——进行深入的 " 语义索引 "。这让 Siri 不仅能识别出 " 播客 " 这个词,还能理解问题背后的深层含义,然后智能地在所有个人数据中进行关联和查找,无论是邮件正文、聊天记录还是其他应用内容,从而准确地找到用户想要的信息。
当被问及 " 是不是还要等一年用户才能用上新 Siri" 时,Craig 回答:" 那正是我们说的意思。" 这正式确认新架构 Siri 将于 2026 年才可能面向公众推出。
一年前,在 WWDC 2024 上,苹果展示的一款 Siri。
Craig 强调:"Apple 的原则是:当我们推出某个产品时,它必须足够好。" 他明确表示,不会 " 偷跑 " 上线未成熟的系统,V2 架构必须通过严格的内部质量门槛,才会正式发布。
这也意味着,当前发布的 Siri 更新更多属于过渡性质,真正意义上的升级将在 2026 年到来。
二、Apple Intelligence 不会是聊天机器人,追求 " 用时即现 "
Craig 和 Joswiak 提到,今年 Apple Intelligence 带来的是 " 具体可用的智能 ",而不是抽象的 AI 概念。
面对业界对 "Apple 是否准备与 ChatGPT、Gemini 正面竞争 " 的疑问,Craig 明确指出,Apple 并不将 Apple Intelligence 定义为聊天机器人。
Siri 的愿景从不是一个 " 聊天工具 ",而是一个可以通过语音和上下文理解来辅助用户完成任务的系统。
他强调:" 我们并没有将 Apple Intelligence 定义为我们的聊天机器人,也不是将它视为一个聊天应用。我们把它视为在我想做的地方,帮助我做我想做的事情。" 这种理念也体现在 Apple Intelligence 的多个设计细节中。
例如,通过语音调取应用、理解上下文、调度快捷指令等功能,并非依赖纯对话逻辑,而是围绕实际操作需求设计的多模态交互系统。
值得注意的是,Apple Intelligence 并非完全基于云端大模型,而是采用本地模型优先策略。
Apple 向开发者开放了设备端的 LLM 框架,支持在 iPhone 或 Mac 本地运行特定推理任务,允许 Swift 直接调用模型能力。
这意味着第三方 App 开发者可以直接调用本地模型进行识图、识物、语义分析等功能,而非必须依赖远程云模型服务。
Apple 还指出,必要时可调用私有云或 OpenAI 模型,处理超出设备性能的复杂任务,形成 " 本地优先 + 私有云 + 第三方 API" 的混合智能体系。
结语:Siri 难产,AI 转身,苹果承认它来晚了
苹果在一定程度上给外界释放出信号:苹果正在推翻旧 Siri,重做一遍。
与此同时,苹果也在刻意避免 " 做一个聊天机器人 "。它的 AI 不追求大模型对话能力,而是要深嵌入系统和设备,成为 " 用时即现 " 的任务助手。苹果没有否认自己在 AI 上的落后。Craig 提到:" 当 V2 准备好后,我们不会让用户等太久,但在此之前,我们也不会贸然发布。"
登录后才可以发布评论哦
打开小程序可以发布评论哦