【CNMO 科技消息】近日,字节跳动推出的 AI 视频生成模型 Seedance2.0 引发海内外广泛关注。这款模型凭借 " 双分支扩散变换器架构 " 实现视频与音频同步生成,用户仅需输入文本或上传图片,即可在 60 秒内获得带有原生音频的多镜头序列视频,其多镜头叙事功能更被业界视为突破性创新。

据官方介绍,Seedance2.0 的核心优势在于 " 单提示生成连贯多场景 " 能力。AI 可自动拆解文本或图像中的叙事逻辑,生成多个关联场景,并在角色一致性、视觉风格统一性及氛围衔接上实现 " 零手动编辑 "。例如,用户输入 " 雨夜追凶 " 的提示词,模型可自动生成从案发现场到嫌疑人逃亡、警方追捕的全流程视频,且镜头切换、光影变化均保持高度连贯。这一特性被开源证券评价为 " 导演级控制精度 ",或成为 AI 影视创作的 " 奇点 "。
博主 " 影视飓风 " 的测试显示,Seedance2.0 在分镜设计上展现出 " 类真人导演 " 的运镜思维,能通过角度切换、镜头推拉等手法增强叙事张力;音画匹配方面,模型可依据视频内容自动生成环境音效与背景音乐,甚至能模拟雨声、脚步声等细节。开源证券研报指出,该模型在自运镜、分运镜及全方位多模态思考能力上实现突破,2K 视频生成速度较快手可灵等竞品快 30%。

此外,影视飓风 Tim 在评测字节跳动 AI 视频模型 Seedance2.0 时,因两项突破性能力直言其 " 恐怖 " ——仅凭一张人脸照片即可生成对应人物的真实声音与语气,并能 " 脑补 " 未上传的物体背面细节。


登录后才可以发布评论哦
打开小程序可以发布评论哦