在生成式人工智能领域,苹果的发展之路可谓波折不断。
11 月 6 日消息,据彭博 · 社的马克・古尔曼称,苹果计划引入谷歌 Gemini 大模型来提供技术支撑,以此让新版本的 Siri 变得更加智能强大。

图源:X
苹果计划每年向谷歌支付大约 10 亿美元,以此获得定制化 Gemini 模型的使用授权,其中核心采用的版本是拥有 1.2 万亿参数的 Gemini 2.5 Pro。
苹果这样做的目的是,为了全面增强 Siri 处理复杂任务的能力。长期以来苹果方面因 Siri" 不够智能 " 而遭用户频频吐槽。
有意思的是,谷歌作为 Safari 浏览器的默认搜索引擎,因而谷歌现在每年要向苹果支付约 200 亿美元。但现在苹果引入谷歌 Gemini 大模型后,苹果也要向谷歌支付年费。
达成合作后,Gemini 大模型将承担起 Siri 在信息摘要整理、任务规划安排以及复杂多步指令执行等核心功能方面的运作。
与当前 Siri 所采用的拥有 1500 亿参数的云端模型相比,1.2 万亿参数的 Gemini 大模型在处理能力以及上下文理解深度上实现了数量级的显著提升。
部署时间方面,升级版 Siri 预计会在 2026 年春季,跟随 iOS 26.4 系统一同推送至用户设备。后续在 2026 年 6 月 WWDC 大会上预览亮相的 iOS 27、macOS 27 等系统里,也将进一步深度整合这一升级后的 Siri。

图源:Apple
为什么会选择 Gemini?
苹果之前对 ChatGPT、Claude 以及 Gemini 这三大主流模型进行了测试,最终选定谷歌的 Gemini 作为合作伙伴。
选择 Gemini 的核心因素主要有以下几点:
首先,财务成本更具优势。Anthropic Claude 的年合作成本超过 15 亿美元,比 Gemini 要高。(前文提到与谷歌合作成本大约 10 亿美元)
其次,苹果与谷歌之间有着长期的合作基础。Safari 浏览器的默认搜索引擎是 Google。
最后,谷歌 Gemini 2.5 Pro 在 WebDev Arena 排行榜中位居前列。
关于安全性方面,苹果也是考虑周到。
谷歌为苹果打造的 AI 模型,会部署在苹果自有的私有云计算服务器环境中运行。也就是说,谷歌方面无法接触到苹果用户的任何数据。
此外苹果目前的系统架构运用了混合模式。谷歌的 Gemini 模型主要负责处理复杂的云端任务,像网页搜索内容的摘要整理、多应用之间的跨端任务调度等。
图源:Google
而苹果自研的模型则持续专注于设备端个人数据的处理,例如健康信息管理、本地文件的交互操作等。
这种 " 云端 + 本地 " 的分层协作模式,既能够显著提升 Siri 的智能水平,又能让苹果牢牢掌握核心数据的控制权。
不过在小雷看来,苹果或许并不打算将 Gemini 作为长久的解决方案。
据知情人士透露,虽然苹果公司目前正面临人工智能领域人才流失的问题,但公司管理层仍计划持续投入新人工智能技术的研发,并且期望在未来能用自家的内部方案来替代 Gemini。
苹果公司的模型团队正着力研发一个拥有 1 万亿参数的云端模型。苹果的高管们认为,这个新模型能够达到与定制版 Gemini 相媲美的质量水准。
但小雷认为,目前谷歌的 Gemini 2.5 Pro 在绝大多数大型语言模型排行榜上占据领先位置,苹果想要追赶并非易事。
但对苹果而言,引入谷歌 Gemini 大模型这一举动,意味着苹果承认自身在人工智能领域已处于落后状态,如今愿意借助外部技术来努力追赶、缩小差距。
说到最后,你怎么看待苹果在 AI 方面的成绩?或者说为什么苹果做不好 AI?欢迎在评论区留言说说你的看法。



登录后才可以发布评论哦
打开小程序可以发布评论哦