快科技 3 月 6 日消息,今日,腾讯混元宣布发布图生视频模型并对外开源,同时上线对口型与动作驱动等玩法,并支持生成背景音效及 2K 高质量视频。
企业和开发者可在腾讯云申请使用 API 接口,用户通过混元 AI 视频官网即可体验。
开源内容包含权重、推理代码和 LoRA 训练代码,支持开发者基于混元训练专属 LoRA 等衍生模型,目前在 Github、HuggingFace 等主流开发者社区均可下载体验。
据介绍,基于图生视频的能力,用户只需上传一张图片,并简短描述希望画面如何运动、镜头如何调度等,混元即可按要求让图片动起来,变成 5 秒的短视频,还能自动配上背景音效。
此外,上传一张人物图片,并输入希望 " 对口型 " 的文字或音频,图片中的人物即可 " 说话 " 或 " 唱歌 ";使用 " 动作驱动 " 能力,还能一键生成同款跳舞视频。
腾讯混元表示,此次开源的图生视频模型,是混元文生视频模型开源工作的延续,模型总参数量保持 130 亿,模型适用于多种类型的角色和场景,包括写实视频制作、动漫角色甚至 CGI 角色制作的生成。
登录后才可以发布评论哦
打开小程序可以发布评论哦