芯东西 前天
Arm把手机AI芯片开发变简单!最强CPU塞进AI加速,vivo阿里都说好
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

已针对 3nm 优化。

作者 |  ZeR0

编辑 |  漠影

芯东西 9 月 10 日报道,今日,Arm 在上海发布全新 Arm Lumex 计算子系统(CSS)平台,专为旗舰级智能手机及下一代 PC 加速 AI 体验而打造,可实现两位数的性能增长。

这套先进计算平台集成了搭载第二代可伸缩矩阵扩展(SME2)技术的最高性能 Arm CPU、GPU 及系统 IP,为桌面级移动游戏、实时翻译、智能助手、个性化应用等各种实时端侧 AI 用例带来更流畅、更快速的体验。

搭载 SME2 的Arm C1 CPU集群实现了显著的 AI 性能提升,包括 AI 性能提升高达5 倍,语音类工作负载延迟优化至4.7 倍,经典大语言模型任务性能提升多达4.7 倍,音频生成速度提升多达2.8 倍

Lumex 能够在设备端本地实现更快、更安全且随时可用的智能体验。SME2 已被阿里巴巴、支付宝、三星 System LSI、腾讯、vivo 等业界领先的生态伙伴采用。

Arm 的每个计算子系统(CSS)都针对细分市场的独特需求进行了调整,通过缩短设计用时和降低开发风险来加快开发,已获得超过 16 次授权,其中超过一半都是去年完成的。

Arm 还将发布面向 PC、物联网和边缘计算的 CSS 平台。

9 月 17 日,智猩猩发起主办的 2025 全球 AI 芯片峰会将在上海举办。大会设有主论坛,大模型 AI 芯片、AI 芯片架构两大专题论坛,以及存算一体、超节点与智算集群两大技术研讨会,近 40 位嘉宾将分享和讨论。IEEE Fellow 王中风教授将开场,华为昇腾等国产 AI 芯片力量集结,华为云、阿里云领衔超节点与智算集群势力。扫码报名 ~

01.

Lumex:多款 CPU 与 GPU

  按需组合,针对 3nm 优化

针对旗舰级设备,Arm Lumex CSS 平台连续 6 年实现两位数的每时钟周期指令数(IPC)性能提升。

全新 Arm Lumex 平台包含以下核心组件:

(1)新一代搭载 SME2 技术的 Armv9.3 CPU:包括 Arm C1-Ultra 和 Arm C1-Pro,为旗舰设备提供支持,设备端性能可提升多达 5 倍、能效提升多达 3 倍。

(2)Arm C1-Premium:专为次旗舰市场打造,可提供一流的面积效率。

(3)Arm Mali G1-Ultra GPU:配备新一代光线追踪技术,在实现先进的图形和游戏体验同时,还可提升整体 AI 性能。

(4)Arm C1-DSU:Arm 迄今为止最灵活、高能效且具多种电源模式的 DynamIQ Shared Unit(DSU)。

(5)针对3nm 工艺节点优化的物理实现。

(6)跨软件栈的深度集成,为使用 KleidiAI 软件库的开发者提供无缝的 AI 加速体验。

相比 Cortex-X925,C1-Ultra CPU 的单线程性能提高 25% ;相比 Cortex-A725,C1-Pro 的持续能效提升 12%;相比 Immortalis-G925,Mali G1-Ultra 的性能提升 20%,能效提升 9%。

合作伙伴可灵活选择使用 Arm Lumex 的方式,来打造 SoC 芯片。

例如,可以直接采用 Arm 交付的平台,并借助为其需求定制的先进物理实现方案,从而获得缩短产品上市时间和快速兑现性能价值等双重优势;也可以根据目标市场,对平台寄存器传输级(RTL)设计进行配置,并自行完成核心模块的硬化工作。

Arm Lumex 为合作伙伴提供了充分的自由度,使其能从高端智能手机、PC 到新兴 AI 优先设备的各类产品中,实现峰值性能、持续能效与芯片面积之间的灵活平衡。

02.

将 AI 加速集成到 CPU 中,

用 SME2 大幅提升 AI 性能  

新款 CPU 的一大核心技术是 SME2。该技术能加快设备端 CPU 直接运行模型及 AI 工具的速度。

Arm 高级副总裁兼终端事业部总经理 Chris Bergey 说,AI 已成为下一代移动与消费技术的支撑底座,依托 Arm Lumex 平台,Arm 持续提升端侧 AI 体验,正积极将 SME2 技术扩展至每一个 CPU 平台。

在实际场景中,SME2 技术将响应速度与运行效率提升至新水平。

SME2 是最新 CPU 集群的一项关键特性,为高效执行单侧 AI 而生,就是给 CPU 配备了一个新的矩阵加速器,让复杂计算变得更快更省电,同时支持 SME2 的新硬件与 CPU、GPU 等其他计算单元分工协作,实现更高效的端侧 AI 异构计算。

例如,得益于 SME2 技术," 智能瑜伽教练 " 演示应用的文本转语音生成速度提升多达2.4 倍

此外,Arm、支付宝与 vivo 的三方合作,将大语言模型的交互响应时间缩短了多达40%,证明了 SME2 可为终端设备带来更快速的实时生成式 AI 体验。

据 vivo 高级副总裁、CTO 施玉坚分享,vivo 蓝晶芯片技术栈新增对 SME2 的支持,vivo 计算加速平台 VCAP 已全面支持 SME2 指令集,对视觉、语音、文本等 AI 计算任务实现了显著的性能加速,例如在全局离线翻译场景,开启 SME2 硬件,能实现额外 20% 的性能收益。

再比如,在搭载 SME2 的单个核心上运行神经摄像头降噪功能,可在 1080P 分辨率下实现帧率超 120 帧 / 秒(fps),或在 4K 分辨率下实现帧率达30fps。这意味着智能手机用户即使身处光线最暗的场景,也能捕捉到更锐利、清晰的图像。

Arm 预计到 2030 年,SME 与 SME2 技术将为超过30 亿台设备新增超100 亿 TOPS的计算能力,为端侧 AI 性能带来指数级跃升。

03.

全新 Mali G1-Ultra GPU:

AI 性能提升 20%,光追性能翻倍

Arm GPU 的芯片累计出货量已突破120 亿颗

全新 Mali G1-Ultra GPU 专为游戏玩家设计,拥有 14 个核心,可将 AI 推理性能提升最高20%,显著增强各类实时应用的响应速度;在各类图形基准测试中实现了20%的性能提升。

其第二代光线追踪(Ray Tracing Unit v2, RTUv2)技术显著提升光照、阴影与反射效果,使光线追踪性能提升至前代的2 倍,并实现每帧功耗降低9%,为手游玩家带来高保真、主机级画质。

同时,Mali G1-Premium(6~9 核心)与 Mali G1-Pro(1~5 核心)两款 GPU,也为硬件资源受限的设备提供了更出色的性能与能效表现。

04.

跨平台易迁移,

满足生态系统 AI 开发需求

Lumex 具备灵活性和可定制性,并提供全新的可迁移性:

Gmail、YouTube、Google Photos 等谷歌应用现已全面支持 SME2 ,搭载 Lumex 的设备一经上市即可无缝运行;

跨平台可迁移性意味着针对安卓构建的优化功能可无缝扩展至采用 Arm 架构的 Windows 及其他操作系统;

支付宝等合作伙伴已成功验证:依托 SME2 技术,终端设备上的大语言模型可实现高效运行。

苹果、三星、联发科等芯片巨头正积极集成 AI 加速功能,推动端侧 AI 向更快速、更高效的方向发展。

阿里巴巴淘天集团业务技术 MNN 负责人姜霄棠说,通过与 SME2 的深度集成,MNN 现已能在智能手机端,为通义千问等十亿参数级大模型提供低延迟的量化推理能力。

支付宝终端技术负责人翁欣旦谈道,在 Arm、支付宝与 vivo 的三方密切协作下,支付宝已在 vivo 新一代旗舰智能手机上完成了基于 Arm SME2 技术的大语言模型推理验证。结果显示,在预填充与解码阶段,其性能分别实现了超过 40% 和 25% 的提升。

据腾讯机器学习平台专家杨晓峰分享,SME2 技术通过突破关键性能瓶颈,高效助力大语言模型在移动端落地部署,如腾讯混元大模型,为端侧大语言模型提供强劲加速,最终带来更优质的用户体验。

开发者可在 Arm Lumex 平台上获取开机即用的 AI 开发体验,借助 KleidiAI 调用 SME2 技术带来的性能优势。

KleidiAI 已集成至所有主流移动操作系统及 AI 框架中,包括 PyTorch ExecuTorch、谷歌 LiteRT、阿里巴巴 MNN、微软 ONNX Runtime 等。开发者无需修改任何代码,就能自动取得 SME2 的加速能力。

05.

结语:为端侧 AI 加速

提供定制芯片套餐

Arm Lumex 是 Arm 面向消费计算市场的最先进 CSS 平台,也被 Arm 视作开启新时代智能体验的基石。

面向 OEM 厂商及开发者,Lumex 可提供所需工具,助力其在关键端侧场景实现兼具个性化、隐私保障与高性能的 AI 体验。

这标志着 Arm 战略的重大转变,从提供半导体 IP 到提供全面的 AI 平台解决方案,以加速客户芯片设计及开发流程,满足日益增长的设备端实时、保障安全隐私、始终可用的 AI 应用需求。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

arm ai ai芯片 vivo 上海
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论