驱动之家 2小时前
阿里发布Wan2.7-Video视频生成模型!从演迈向导 聚焦创作全链路
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 4 月 3 日消息,阿里巴巴今日正式发布 Wan2.7-Video 视频生成系列模型,涵盖文生视频、图生视频、参考生视频和视频编辑四大模型。

新模型拥有全面的创作控制力,将 AI 的能力从单一素材生成扩至创作全链路,从 " 演 " 迈向 " 导 "。

据介绍,当前 AI 生视频距离影视级创作工具仍有距离,而由四个专业模型组成的万相 2.7 试图补齐这些能力。

全新发布的文生视频(Wan2.7-t2v)、图生视频(Wan2.7-i2v)、参考生视频(Wan2.7-r2v)和视频编辑(Wan2.7-videoedit)分别对应从零创作、画面控制、演绎复刻到精细编辑的完整工作流。

其可实现文本、图像、视频、音频全模态输入的统一创作体系,全系列支持 720P 和 1080P 分辨率输出,视频时长可在 2 至 15 秒范围内任意指定。

Wan2.7-Video 拥有强大的视频编辑能力,一句话即可对视频进行局部或整体修改。

例如添加、删除和替换元素、切换场景环境(如将晴天改为雨天、夏季改为冬季),以及变换整体视觉风格(如写实转水彩、真人转黏土动画)。

它还融合了编辑和生成能力,角色的行为、表情和情绪均可调整,角色台词可替换并自动匹配口型与音色;同时拍摄方式也可重新定义,包括机位、视角、景别和焦距等参数。

在参考生视频上,模型还支持动作、运镜和特效的快速复刻。

用户可输入图像、视频和音频多模态,参考锁定角色的外观和音色、精准迁移人物动作,即便是大幅度的复杂动作也能稳定还原。最多支持 5 个视频主体参考,为业内最多。

值的注意的是,Wan2.7-Video 只需一段简短的文字描述,即可实现智能剧本创作和分镜调度,编排剧情节奏、设计镜头语言并安排场景转换。

在运镜方面,Wan2.7-Video 支持数十种基础运镜和复杂的组合运镜方案,并能与剧情内容紧密配合,强化叙事张力。

此外,Wan2.7-Video 在视觉风格和声音控制上也有所突破,可延展出上千种风格组合,覆盖 2D 卡通、3D 动画、水墨、黏土、赛璐璐等多种视觉语言。

即日起,用户可在 https://tongyi.aliyun.com/wan/、wan.video 网站和阿里云百炼体验 Wan2.7,千问 App 也即将接入。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

考生 ai 分辨率 张力 阿里云
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论