在阿里通义今晨发布 Qwen3-VL 系列新成员 Qwen3-VL-4B 和 Qwen3-VL-8B 之际,英特尔于今日同步宣布,已经在酷睿 Ultra 平台上完成对这些最新模型的适配。此次 Day 0 支持延续了十天前对 Qwen3 新模型快速适配的卓越速度,再次印证了英特尔在加速 AI 技术创新、积极构建模型合作生态方面的深度投入与行动力。
此次发布的 Qwen3-VL 系列新模型,在延续其卓越的文本理解和生成、深度视觉感知与推理、更长的上下文长度、增强的空间与视频动态理解及强大代理交互能力的同时,凭借其轻量化的模型参数设计,在英特尔酷睿 Ultra 平台上可以实现高效部署,为复杂的图片和视频理解及智能体应用带来更出色的性能与体验。
为确保用户能够获得更流畅的 AI 体验,英特尔在酷睿 Ultra 平台上,对 Qwen3-VL-4B 模型进行了创新的 CPU、GPU 和 NPU 混合部署,充分释放了 XPU 架构的强大潜力。通过精巧地分解并优化复杂的视觉语言模型负载链路,并将更多负载精准调度至专用的 NPU 上,此次英特尔的 Day 0 支持实现了:
显著的能效优化:大幅降低 CPU 占用率,更好地支持用户并发应用。
卓越的性能表现:在混合部署场景中,模型运行吞吐量达到 22.7tps。
流畅的用户体验:充分利用酷睿 Ultra 的跨平台能力,提供无缝的 AI 交互。
以下的演示视频充分地展示了该成果:Qwen3-VL-4B 模型在图片理解与分析任务中,在高效利用 NPU 算力的同时,显著降低了 CPU 的资源占用。
(演示视频 : 在英特尔在酷睿 Ultra 平台上,Qwen3-VL-4B 释放系统资源带来流畅体验)
快速上手指南
第一步 环境准备
基于以下命令可以完成模型部署任务在 Python 上的环境安装。
python -m venvpy_venv
./py_venv/Scripts/activate.bat
pip uninstall -y optimum transformers optimum-intel
pip installtorch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 – index-url https://download.pytorch.org/whl/cpu
pip installgit+https://github.com/openvino-dev-samples/optimum.git@qwen3vl
pip installgit+https://github.com/openvino-dev-samples/transformers.git@qwen3vl
pip installgit+https://github.com/openvino-dev-samples/optimum-intel.git@qwen3vl
pip install – pre -U openvino – extra-index-url https://storage.openvinotoolkit.org/simple/wheels/nightly
该示例在以下环境中已得到验证:
硬件环境:
英特尔 ® 酷睿™ Ultra 7 258V
iGPU 驱动版本:32.0.101.6733
操作系统:
Windows11 24H2 ( 26100.4061 )
OpenVINO版本:
第二步 模型下载和转换
在部署模型之前,首先需要将原始的 PyTorch 模型转换为 OpenVINOTM 的 IR 静态图格式,并对其进行压缩,以实现更轻量化的部署和最佳的性能表现。通过 Optimum 提供的命令行工具 optimum-cli,可以一键完成模型的格式转换和权重量化任务:
optimum-cliexport openvino – model Qwen/Qwen3-VL-4B-Instruct – trust-remote-code – weight-format int4 – task image-text-to-text Qwen3-VL-4B-Instruct-ov
开发者可以根据模型的输出结果,调整其中的量化参数,包括:
– model: 为模型在 HuggingFace 上的 modelid,这里也提前下载原始模型,并将 modelid 替换为原始模型的本地路径,针对国内开发者,推荐使用 ModelScope 魔搭社区作为原始模型的下载渠道,具体加载方式可以参考 ModelScope 官方指南:https://www.modelscope.cn/docs/models/download
– weight-format:量化精度,可以选择 fp32,fp16,int8,int4,int4_sym_g128,int4_asym_g128,int4_sym_g64,int4_asym_g64
– group-size:权重里共享量化参数的通道数量
– ratio:int4/int8 权重比例,默认为 1.0,0.6 表示 60% 的权重以 int4 表,40% 以 int8 表示
– sym:是否开启对称量化
第三步 模型部署
除了利用 Optimum-cli 工具导出 OpenVINO 模型外,我们还在 Optimum-intel 中重构了 Qwen3-VL 和 Qwen3-VL-MOE 模型的 Pipeline,将官方示例示例中的的 Qwen3VLForConditionalGeneration 替换为 OVModelForVisualCausalLM 便可快速利用 OpenVINO 进行模型部署,完整示例可参考以下代码流程。
以下为该模型在图像理解任务中的输出示例:
(图片由 AI 生成,仅做效果演示)
‘ This is a heartwarming, sun-drenched photograph capturing a tender momentbetween a woman and her dog on a beach at sunset.nn**KeyElements:**nn* **The Subjects:** Ayoung woman with long dark hair, wearing a plaid shirt, sits on the sand.Beside her, a large, light-colored dog, likely a Labrador Retriever, sitsattentively, wearing a harness. The two are engaged in a playful, paw-to-pawhigh-five or "pawshake" gesture, a clear sign of their bond.n* **The Setting:** They are on a wide, sandybeach.
CPU 代号名 | 设备 | 模型 | 精度 | 输入规模 | 输出规模 | 第二个 + token/ 秒 |
Lunar Lake | 英特尔酷睿 Ultra 7 258V ( XPU ) | Qwen3-VL-4B-Instruct | NF4 | 656 ( 1024 for LLM ) | 128 | 22.7 |
登录后才可以发布评论哦
打开小程序可以发布评论哦