快科技 7 月 29 日消息,7 月 28 日晚,阿里 AI" 四连发 " 再落一子,电影级视频生成模型通义万相 Wan2.2 正式开源,并全面接入通义 APP。
据悉,Wan2.2 此次开源的文生视频模型和图生视频模型均为业界首个使用 MoE 架构的视频生成模型,总参数量为 27B,激活参数 14B,均由高噪声专家模型和低噪专家模型组成,分别负责视频的整体布局和细节完善。
在同等参数规模下,计算资源消耗降低约 50%,有效缓解了视频生成处理 Token 过长带来的算力压力,可进一步提升生成效率和用户体验。
据介绍,Wan2.2 开源后,手机用户只需在通义 APP 中输入文本或图片,即可化身 "AI 导演 ",借助 Wan2.2 首创的美学控制系统,生成具备电影级质感的 1080P 高清视频。
目前,用户单次可生成 5 秒视频,并可通过多轮提示词进一步完成短剧制作。
未来,通义万相还将继续提升单次视频生成的时长,让视频创作更高效。
据悉,Wan2.2 首创的美学控制系统,直接将光影、色彩、镜头语言三大电影美学元素装进模型,可以随意组合 60 多个直观可控的参数,在构图、微表情、复杂调度等能力上媲美专业电影水平。
同时,Wan2.2 还支持智能美学词响应、智能参数联动,用户只需简单描述,模型即可解析创作意图,并自动协调相关参数。
而在人物面部表情、多人交互、复杂运动等维度上,Wan2.2 也实现显著提升。
模型不仅能生成 " 大笑 "" 惊恐 " 等经典情绪,还能更细腻地刻画 " 思考时不经意的挑眉 "" 强忍泪水时的嘴唇颤抖 " 等精细微表情。
此外,Wan2.2 还深度优化了对力学、光学、流体力学等物理规律的模拟,可精准还原物体碰撞、光影折射、流体流动等真实动态。
官方也展示了一些输入提示词后呈现的案例,例如:生成一段复古且富有文艺感的视频;一段复刻电影《星际穿越》中宇航员在米勒星球的经典画面。
自今年 2 月以来,通义万相已连续开源文生视频、图生视频、首尾帧生视频和全能编辑等多款模型,目前相关功能均可在通义 APP 直接体验。
登录后才可以发布评论哦
打开小程序可以发布评论哦