IT 之家 4 月 3 日消息,今天下午,阿里宣布视频生成模型 Wan2.7-Video 正式上线。该模型支持文本、图像、视频、音频全模态输入,聚焦 " 创作 " 全链路,覆盖生成、编辑、复刻、重塑、驱动、续写、参考等流程,号称更可控、更全能、" 能导擅演 "。

Wan2.7 支持文本、图像、视频、音频全模态输入,在画面结构、剧情走向、局部细节、时序变化等方面均可随心控制,让视频像文档一样可编辑。
用户可以通过指令对视频画面进行局部调整,编辑后的区域在光影与材质上能与原视频自然融合。同时,其支持指令增删元素(如 " 删掉视频中的火车 ")、替换物体(如 " 把胶片替换成盘子 "),也可修改物体属性(如建筑颜色)。支持参考图像内容进行精准添加。
该模型还支持变换环境与风格,人物动作不变,背景季节可从夏日变深秋,或一键转换为羊毛毡风格,瞬间穿越平行宇宙。
此外,其还支持视频质量提升(如给黑白画面上色)、视觉理解任务(如主体分割)及拍摄方式调整(如修改对焦)等,满足多样编辑需求。
对已经拍摄或生成的视频内容,支持通过指令描述实现剧情内容和拍摄方法的修改。Wan2.7 允许你在不改变原有身份和场景的前提下,对角色的行为、台词甚至拍摄视角进行颠覆性修改,实现灵活的二次创作。同时,其支持修改角色所讲的台词内容,保持其情绪、口型与新台词匹配,并保持音色统一。也可以修改行为,如 " 其他保持不变,坐沙发上的女生变为站着打游戏 ",仅动作逻辑改变。
该模型还支持同场景角色的颠覆演绎,如将玩家替换为中世纪骑士,手中控制器替换为冷兵器,但保持原有握持姿势不变。也可修改拍摄相机设定(机位、视角、景别、镜头类型、焦距等)。例如 " 将镜头修改为从地面逐渐向上升起 ",同一素材呈现截然不同的观影体验。
该模型能够通过首尾帧、视频续写、续写 + 尾帧等方式,实现对剧情走向和画面构图、光影的精准控制,兼顾动态延续性与结构可控性。
其还支持图像、视频、音频等多模态参考,实现外观和音色的锁定。支持多达 5 个视频主体参考,让每个角色都有专属音色,多镜头间特征保持更一致。
据 IT 之家了解,用户可以通过以下方式体验 Wan2.7 视频生成模型:
阿里云百炼:https://bailian.console.aliyun.com/cn-beijing?tab=model#/model-market/all?providers=wan
万相官网:https://tongyi.aliyun.com/wan


登录后才可以发布评论哦
打开小程序可以发布评论哦