快科技 11 月 6 日消息,由于苹果自研大模型进展不顺,苹果如今决定引入谷歌 Gemini 大模型提供技术支持,让新版 Siri 更智能、功能更强。
苹果拟每年支付谷歌约 10 亿美元,获取定制化 Gemini 模型使用权,核心版本为 1.2 万亿参数的 Gemini 2.5 Pro。
该模型将负责 Siri 的信息摘要、任务规划、复杂多步指令执行等核心功能,相比当前 Siri 使用的 1500 亿参数云端模型,处理能力、上下文理解深度实现量级跃升,支持多模态交互与 128K token 超长文本处理。

升级后的 Siri 预计于 2026 年春季随 iOS 26.4 系统推送,后续还将在 2026 年 6 月 WWDC 大会预览的 iOS 27、macOS 27 等系统中进一步整合。
苹果此前测试了谷歌 Gemini、OpenAI ChatGPT、Anthropic Claude 三大主流模型,最终选择谷歌的核心原因包括:财务成本更优(Anthropic Claude 年合作成本超 15 亿美元,高于 Gemini)、双方长期合作基础、Gemini 2.5 Pro 当前在大型语言模型排行榜中表现领先。
Gemini 采用混合专家架构,虽总参数超万亿,但每次查询仅激活部分参数,能在保证庞大计算能力的同时,避免产生过高的处理成本。

谷歌将为苹果开发的 AI 模型将运行在苹果私有云计算服务器上,谷歌无法获取苹果用户数据,消除用户对数据泄露的担忧。
另外,苹果当前架构采用混合模式,谷歌 Gemini 负责复杂云端任务(如网页搜索摘要、多应用跨端任务调度),苹果自研模型继续处理设备端个人数据(如健康信息、本地文件交互),形成 " 云端 + 本地 " 分层协作,既提升 Siri 智能度,又保留核心数据控制权。


登录后才可以发布评论哦
打开小程序可以发布评论哦