2025 年 2 月 25 日,阿里云正式开源视觉生成基座模型万相 2.1(Wan),这一重磅动作在 AI 视频生成领域掀起技术浪潮。作为全球率先实现万相 2.1 全功能整合的在线 AIGC 创作平台,RunningHub 以 " 零门槛、高性能、全生态 " 的优势,让创作者零门槛驾驭尖端 AI 技术。
万相 2.1:超越 Sora 的国产大模型
作为阿里云视觉生成技术的集大成者,14B 版本的万相模型在指令遵循、复杂运动生成、物理建模、文字视频生成等方面表现突出,1.3B 版本测试结果不仅超过了更大尺寸的开源模型,甚至还接近部分闭源模型。
在权威评测集 VBench 中,万相 2.1 以总分 86.22% 的成绩大幅超越 Sora、Luma、Pika 等国内外模型,稳居榜首位置,尤其在复杂运动生成(如人物旋转、跳跃)、物理规律模拟(碰撞、反弹)和中文文字视频生成上表现惊艳。
RunningHub:万相 2.1 的最佳拍档
面对 14B 参数模型对本地部署带来的挑战,作为 AI 创作领域的先锋,RunningHub 率先集成万相 2.1 模型,用户无需复杂的本地部署,一键即可调用万相 2.1 模型。
针对 14B 模型的高算力需求,RunningHub 依托超大规模云端 GPU 集群,提供流畅的在线生成体验,彻底解放本地硬件压力。无论是专业创作者还是新人小白,都能通过网页端高效创作专业级视频。
作为最受全球创作者欢迎的在线 AIGC 创作平台,RunningHub 集成 Stable Diffusion、Lora 等超 6000+ 节点与海量模型,覆盖游戏、动漫、电商、设计等多个创作领域,结合万相 2.1 的强大能力,能够轻松打造多样化内容。
目前,已有多名创作者通过 RunningHub 万相 2.1 打造出数十个专业工作流及 AI 应用。
万相 2.1 的开源标志着 AI 视频技术商业化的加速,而 RunningHub 的深度整合让这一技术触手可及,当万相 2.1 遇见 RunningHub 的云端生态,技术门槛不再是创意的枷锁。无论是想用 AI 快速生成产品演示视频的电商团队,还是试图用动态漫画讲述故事的独立创作者,现在只需打开浏览器就能调用对标好莱坞特效的生成能力,将创意快速转化为作品。
立即加入 RunningHub,成为首批驾驭万相 2.1 的先锋创作者!在这里,每一份灵感都能被 AI 赋能,每一秒视频都在定义未来。
登录后才可以发布评论哦
打开小程序可以发布评论哦