2026 年 5 月 13 日,联发科召开了新一届的天玑开发者大会。在此次活动的主论坛结束后,我们三易生活也与联发科方面相关人士进行了深入的沟通。

在这次交流中,联发科方面提到了一个我们此前从未想过的情况,那就是如今手机上的 App 已经开始出现 " 争抢 NPU" 的现象。
当然,大家都知道,如今的智能手机、特别是中高端机型,已经普遍开始搭载端侧 AI 功能。但在大多数用户的印象里,手机的 NPU 似乎除了跑这些系统级 AI 功能,以及在拍照时可能会被调用外,平时好像也没啥 " 存在感 ",为什么 NPU 的算力调度就成了一个值得在开发者大会上来讨论的 " 问题 " 了呢?
如今的手机 App,可能比你想的还要 " 滥用 "NPU
从过往的资料来看,智能手机行业的第一颗独立 NPU,是高通在 2013 年 10 月发布的 " 类脑计算 " 芯片 Zeroth。它的相关技术后续被融入到 2015 年发布的骁龙 820 中,最早专用于加速杀毒软件,此后也逐步被用在早期的 "AI 拍照 " 场景中。

但现在的情况已经完全不一样了。首先,各家手机厂商都会有一些 " 长期占着 "NPU 的后台 AI 服务,比如人脸识别、抬腕亮屏感知、离线语音唤醒、相册后台自动分类等。

其次,大家熟悉的聊天软件现在就会用 NPU 来做本地语音转文字的运算,短视频平台会用 NPU 在后台跑视频(画质)增强算法,购物 App 会拿 NPU 推理本地比价和推荐模型,甚至各家的手机输入法本质上也会集成小尺寸模型,通过 NPU 来实现智能联想、上下文润色、打字防误触等等功能。

当然,这还不包括一些 NPU 算力的 " 重需求场景 "。比如,相机软件的本地算法优化,视频会议软件的实时摄像头增强,甚至一些游戏也开始基于 NPU 来做超帧超分、驱动更高智能化的 NPC" 陪玩 "。
更糟糕的是,NPU 的特性决定了它往往很难 " 优化 "
众所周知的是,如今许多手机厂商都会在发布新品或新版系统时宣称,他们用了怎样的技术去优化 App 对 CPU、GPU 的算力 " 抢占 " 现象,可以让前台 App 更流畅、让手机的功耗和发热更低等。
为什么这种优化能够成立?其实基本原理就在于不管 CPU 还是 GPU,它们所执行的代码都是 " 一段一段 " 的。假设某个游戏有几百 GB,但实际上它当前提供给 GPU 的 " 真实负载 ",可能只有屏幕上玩家视角所看到的那几个物体、几百 MB 的数据量而已。

但是 NPU 的情况就不一样了。原因也很简单,因为 NPU 在运行 AI 模型时,需要先将整个 AI 模型读取到内存,然后才能进行计算。而且很多时候,这个读取的过程反而比真正 " 执行 " 起来之后要慢得多。
正因如此,站在开发者的角度来说,只要他们需要用到 NPU 算力,就一定会想尽办法保证自己的模型被强制 " 驻留 " 在 NPU 内部,从而最大程度提高响应速度。而这,就造成了联发科方面所指出的 App" 争抢 NPU" 现象。
这个问题如何解决?联发科已经做好了安排
很显然,既然是联发科方面主动提出 "NPU 在手机上被争抢 " 这一现象,那么他们自然不可能没有与之对应的解决方案。而这些解决方案,就在今年的天玑开发者大会上悉数亮相了。

首先,针对诸如手机这类低功耗、注重能效的设备,联发科在天玑 9500 里设计了 " 双 NPU" 架构。即一颗低功耗的 eNPU(嵌入式 NPU)专门分流后台常驻的唤醒、相册分类、环境感知等功能,从而让 " 主 NPU" 可以专心应对第三方 App 的模型计算需求。

其次,针对功耗上限高得多,也不怎么需要为散热发愁的车载平台,联发科则准备了规格大得多的 " 双 AI 引擎 "。
通过在一颗芯片内同时集成联发科自有的深度学习加速器,以及来自 NVIDIA 的 Blackwell GPU 核心,使得这两个单元同样可以起到 " 分流 "AI 计算任务,从而实现同时运行更多车内大模型的效果。而且与智能手机 SoC 相比,C-X1 平台的全模态 AI 算力高达 400 TOPs,能够实现更大规模、更精细的用户需求感知与 AI 推理。

最后,除了上述两种硬件层面的专门设计,联发科方面还在今年的天玑开发者大会上,正式公布了天玑 AI 开发工具 3.0。它毫无疑问就提供了对 AI 计算任务的分流能力,即可以让 CPU、GPU 也参与不同类型的大模型推理加速。

在此基础上,联发科的 LowBit 压缩工具包允许先将模型 " 压缩 " 再分配算力,可节省最高 58% 的内存占用。而新增的 eNPU 工具包,则首次为第三方应用开放了 eNPU 的访问和优化接口,解决了第三方应用只能 " 抢夺 " 主 NPU 算力的情况。
再加上可视化部署与自动架构转换,就让开发者可以更简单地在 App 设计阶段就将内置的模型,为 CPU、GPU 或 eNPU 做好适配,并在不牺牲用户体验的前提下,让各种不同的 "AI 应用 " 可以充分利用异构算力、同时运行。
低端机情况会更糟吗?这是个 " 奢侈的烦恼 "
可能有的朋友会担心,旗舰 SoC、旗舰车载平台尚且要想办法解决 " 抢占 NPU" 的问题,那么中低端、入门级的设备岂不是要被未来的 "AI App""AI OS" 直接 " 卡爆 "?

别说,这个问题还真不存在。但这不是因为开发者有 " 良心 ",而是因为现阶段的端侧大模型功能普遍对硬件规格设置了门槛。如果手机的性能达不到、算力不够用,AI 功能就会自动屏蔽、不再启用。
当然,站在用户的角度来说,他们倒未必会把这视作一种 " 歧视 ",甚至有些发烧友或许还希望找到办法,在旗舰机上也 " 屏蔽 " 后台 AI 功能。而这自然也反映了 AI 应用生态除了 " 算力不够用 " 外,目前亟待解决的另一个问题。


登录后才可以发布评论哦
打开小程序可以发布评论哦