IT之家 昨天
英特尔AutoRound算法落地:支持英伟达CUDA及自家GPU
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 12 月 9 日消息,当地时间 12 月 8 日,英特尔宣布将 AutoRound 算法集成到 LLM Compressor,以提升低比特量化大模型的性能与效率。

该算法可在保持模型准确度的前提下,实现更快、更轻量的推理,同时兼容包括英特尔自家 GPU 与英伟达 CUDA 在内的多硬件平台。

此外,英特尔未来推出的 "Crescent Island" 系列数据中心 GPU 将原生支持 FP8 / MXFP8 / MXFP4 等格式,使量化模型能够直接利用这些数据类型带来的硬件加速优势。

英特尔表示,AutoRound 是面向大语言模型(LLM)与视觉语言模型(VLM)的先进后训练量化(PTQ)算法,通过为每个量化张量引入三个可训练参数(v、α、β),配合逐层处理和符号梯度下降方法,实现更精准的舍入和裁剪优化,从而减少输出误差。

AutoRound 通过三项核心技术实现低比特量化优化:

每张量引入三个可训练参数:v(舍入偏移量)、α 与 β(动态裁剪范围控制);

逐层序列处理:采用带符号梯度下降法联合优化舍入与裁剪策略;

最小化分块输出重建误差:在百步级轻量调优下实现更高精度。

官方透露,AutoRound 的主要优势包括:

在低比特量化条件下维持较高准确度;

支持 W4A16、MXFP8、MXFP4、FP8、NVFP4 等多种数据类型;

可进行混合比特与按层精度搜索,提供灵活的精度与效率平衡方案;

零额外推理开销,量化模型可直接通过 vLLM 框架部署;

适用于 LLM 与 VLM 的量化场景。

英特尔称,AutoRound 生成的量化模型可在多个英特尔硬件平台上加速推理,包括 Xeon 处理器、Gaudi 加速器、英特尔数据中心 GPU、Arc B 系列显卡,以及 CUDA 生态的 GPU。

此次集成通过 LLM Compressor 中新增的 AutoRoundModifier 完成,能够生成可直接在 vLLM 上部署的 W4A16 量化模型。当前已支持 Llama、Qwen 等主流密集 LLM,并提供轻量的调优流程(仅需数百步),不增加推理开销。

英特尔表示,未来将继续扩展更多量化方案(IT 之家注:包括 FP8 与 MXFP 系列)、自动混合比特搜索、更多模型族(如 MoE),并加强与 LLM Compressor 其他压缩算法的协同,以形成更完整的多策略组合方案。官方也邀请开发者在社区讨论区提交反馈,用于制定后续路线图。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

英特尔 英伟达 it之家 数据中心 gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论