雷科技 12小时前
三星憋大招!本地大模型上车S26,手机AI的端侧大战要打响了?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

过去一年时间里,手机厂商在 AI 方面的动作越来越密集,荣耀 YOYO 接入更多第三方智能体,实现系统层与应用层的 AI 能力对接;华为小艺只需一句指令便能在应用间穿梭,帮你完成一些任务。

尽管这些 AI 能力愈发强大,但如果把这些功能拆开来看,会发现一个很现实的情况,本质上,这些 AI 依然需要联网才能使用。也就是说,手机 AI 仍困在端云协作的阶段,还未进一步。

近期,X 平台 Semi-retired-ing 透露,三星将在即将发布的 Galaxy S26 系列上准备一套能够在本地运行的大模型,用于实现大部分 AI 功能。这套大模型甚至拥有高级权限,能在必要时清除内存,留出更多空间,以确保随时响应用户的需求。

(图源:Oneleaks)

实际上,三星在 2023 年就曾展示过一套名为 " 高斯 " 的本地大模型,也曾被指出这套模型已经在 Galaxy S25 系列里预装。但不知出于何种原因,三星一直在力推 Google 的 Gemini,几乎未再提及 " 高斯 "。直到近期,三星的本地大模型才被重新提及。

在大多数厂商仍然以云端为主的阶段,三星为何要尝试把模型真正放进手机里?是希望通过这种方式 " 弯道超车 "?还是移动端已经拥有了本地部署大模型的能力?无论答案是什么,我们只知道,手机 AI 的新阶段即将拉开帷幕。

如果三星真的要将大模型部署在本地,是否说明手机 AI 要开始放弃端云协同的策略,转向纯本地部署了?事实上,这在短期内可能并不会实现。

端云协同在当前的手机 AI 里,是几乎完美的方案。云端承担的是模型规模、复杂推理和快速迭代的任务,背后的优势自然是云服务器拥有更充足的算力资源,也更方便进行模型更新、统一治理和安全审查。而端侧负责对接用户的第一道指令,像是唤醒、语音识别、基础意图判断,然后把复杂请求转交给云端完成。

这种分工逻辑,对于偶尔用用 AI 的用户而言,其实没什么问题。查一条信息,哪怕多等一两秒,也不会明显影响体验;对厂商而言,这种模式还不会多占用手机的资源,哪怕是性能稍差一些的手机也能使用。而三星 Galaxy S26 系列内置大模型这套策略,大概率不会开放给旧机型,这就是区别。

(图源:三星)

但问题在于,这套逻辑的前提是,AI 的使用频率不会太高。随着手机 AI 的发展方向逐渐清晰,厂商的目标已经不再是 " 帮你回答问题 ",而是 " 替你完成操作 "。AI 不再只是对话窗口,而是开始尝试理解屏幕内容、拆解任务目标、规划执行路径,最终形成完整的 AI Agent 链路。

一旦 AI 进入这种高频、连续、系统级的交互场景,端云协同的短板就会被迅速放大。例如在弱网环境下,云端响应延迟会让操作出现明显断点;在连续指令场景中,网络中断就可能让整个流程停在原地。对于用户来说,效率低下是很难被接受的。

也正因为如此,近期厂商开始频繁讨论 " 端侧大模型 ",并不意味着它们要彻底抛弃云端,而是希望把更多即时判断和关键决策留在设备本身。端云协同显然是这个阶段里的最优解。

既然端云协同有缺点,那么为何本地大模型很难在手机端落地呢?其实倒也不是并不是厂商不愿意尝试,而是受限条件过于明确。

首先是硬件约束。内存、算力和功耗,是端侧 AI 的三个核心条件。哪怕模型规模不算夸张,只要需要常驻后台,就会对系统资源形成持续占用,光是内存这个条件,甚至迫使苹果提升了 iPhone 的内存空间。

其次是稳定性和维护成本。云端模型可以快速迭代、即时修复错误,而本地模型一旦部署,优化节奏就只能依赖系统更新。对于系统级 AI 而言,这意味着更高的风险,也更高的测试成本。

但 2025 年的变化在于,芯片能力大幅提升,让手机纯端侧大模型几乎要成为现实

以第五代骁龙 8 至尊版为例,高通披露其 Hexagon NPU 在本地生成式任务中,已经可以实现约 200 token/s 级别的输出速度。这个指标的意义在于,端侧模型已经能够进行连续、自然的语言生成,这种连续性,是 AI 执行复杂交互指令的前提条件。

同样地,联发科天玑 9500 在 NPU 990 上引入了更激进的能效设计。按照官方说法,在 3B 规模的端侧模型上,其生成效率提升的同时,整体功耗还有明显下降。这意味着端侧模型不再只是 " 能跑一次 ",而是开始具备更现实的常驻可能。

搭载最新一代旗舰芯片的新机们,或多或少都已经利用好了芯片算力提升带来的红利,推出了各种 AI 交互功能。比如荣耀的 YOYO 智能体,在 Magic8 Pro 上已经能够支持多达 3000+ 场景的自动任务执行。

但即便如此,用纯端侧 AI 去实现复杂任务,还是有一定难度。

就连被爆料内置本地大模型的 Galaxy S26,也需要通过定期清理系统资源,才能确保模型常驻运行。这本身就说明,完全依靠端侧模型去承载复杂 AI 任务,在短期内仍然不现实

从目前主流厂商的选择来看,端云协同仍然是最稳妥的方案。

以华为为例,小艺依然是国内系统级 AI 助理中完成度最高的一套方案,覆盖语音交互、系统控制、跨设备协同等多个维度。但即便如此,其核心架构依然是典型的端云协同——端侧负责感知和基础理解,云端承担复杂推理。

这并不是厂商 " 做不到端侧 ",而是一个更现实的取舍问题。当 AI 开始深度介入系统和服务层,稳定性、效率和资源控制,始终比激进部署更重要。

与此同时,今年最引人关注的变化,其实是 AI 开始尝试接管 " 操作权 ",豆包手机助手却尝试了把大模型能力前移到手机交互层,让 AI 不只是回答问题,而是直接理解屏幕内容、规划操作路径,甚至模拟用户完成跨 App 行为。这种模式,瞬间让整个行业沸腾。

(图源:豆包手机助手)

不过,豆包手机助手、华为小艺、荣耀 YOYO、小米超级小爱等一系列开启了 " 自动驾驶 " 的手机 AI,本质上代表着一个前进的方向,正如前文所说的,这是下一阶段的 AI 手机必须掌握的技能。

无论如何,端侧大模型并不会在短时间内彻底改变手机 AI 的整体方向。无论是三星、华为,还是国内几家主流厂商,当前的选择都是端云协同的方案。

毕竟手机并不是为大模型而生的设备,这使其必须在性能、功耗、稳定性和安全之间找到平衡点。一旦 AI 开始深度介入系统操作,就不能让用户的体验出现问题,这也是为什么厂商不会贸然跟进。

从这个角度看,端侧大模型可能不会成为手机发布会上的 " 爆点 ",但将会悄然抬高旗舰机的技术门槛,让有端侧和仅云端的 AI 手机在 AI 功能实现的体验上出现差距。而这个分水岭,或许就在不久的将来就会到来。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 三星 高斯 华为 galaxy s
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论