
在 3 月 27 日下午的中关村论坛年会上,昆仑万维集团旗下天工 AI 再次亮剑。
这次,该公司向外界宣告了两大动作,一是 2026 年的 AGI 战略升级;二是 Matrix-Game 3.0、SkyReels V4、Mureka V9 三大核心模型惊艳亮相,并均跻身世界第一梯队;
昆仑万维 2026 年 AGI 战略:"3+1" 生态架构
出海 17 年,昆仑万维在内容领域形成了独特优势,并在 AI 时代及时押注推出天工 AI,并迅速布局,推出多款大模型及 AI 原生平台。
谈及 2026 年,天工 AI 董事长兼 CEO 周亚辉认为,AGI 已经来了,只是还没有均匀分布。因此,昆仑万维对自己的发展路线做了调整,从 2023 年的 6 个方向做了收缩。
周亚辉称昆仑万维 2026 年的 AGI 战略升级为 "3+1" 生态架构——以 4 个 SOTA 大模型为底座,支撑 3 大 AI 原生平台 +1 个超级智能体。整体而言是从全模态技术突破到 AI 平台经济生态构建的整体路径,目标是通过打造 AI 经济平台,赋予每一个创作者匹敌一家公司的全栈生产力。
其中,DramaWave、Mureka 和猫森学园三个大平台的底层逻辑是用 SOTA AIGC 大模型 × 内容生产 × 内容分发,做到端到端的闭环;另外的 "1" —— Skywork Super Agents,则是背后通用的操作系统,把它定义为面向全球所有内容创作者的操作系统,从长远来看,未来可能是五亿内容创作者规模的一人公司的操作系统。

展望未来,周亚辉表示,2028 年是平台经济年,昆仑万维有望成长为一个 AI native 的平台经济体。四大 SOTA 模型、一个超级智能体操作系统和三大平台经济体,归根到底只是为了实现一个目标——让每一个创作者,都拥有匹配一家公司的全栈 AI 生产力,在确定的 AGI 时代与千万超级个体共建繁荣。
在阶段目标上,2026 年将是昆仑万维的基础设施年,完成全栈部署;2027 年生态端发布,释放创作者经济。具体来看,包括 skills 生态全面开放、创作者变现通路打通、B 端 API 开放等;2028 年 AI native 平台经济成型,在垂直平台占据头部位置,用户规模和市场份额等进入全球行列等。
三大模型技术突破,助推产业落地
昆仑万维首席科学家、香港中文大学教授成宇带来题为《构建物理仿真驱动下的实时交互世界:天工世界模型与 AIGC 全家桶发布》的模型发布演讲,发布 Matrix-Game 3.0 游戏大模型、SkyReels V4 视频大模型、Mureka V9 音乐大模型,这三大模型的迭代升级,将推动游戏、视频、音乐领域实现从技术突破到产业落地的跨越式发展。

首先,昆仑万维正式发布 Matrix-Game 3.0 模型:物理仿真驱动下的实时交互式世界模型创新实践。从 2.0 到 3.0 模型,完成了一次关键跃迁:从 " 可运行的交互 Demo",走向 " 具备稳定性与工业级性能的世界模型系统 "。
这一进化的产业背景是,过去一年一个明显的趋势是:AI 已经从 " 理解世界 " 走向 " 生成世界 "。世界模型正在推动 AI 从 " 静态内容生成 " 走向 " 动态世界建模 ",并成为连接感知、决策与生成的核心基础能力。在此背景下,构建物理仿真驱动下的实时交互世界是世界模型的核心内容。
Matrix-Game 3.0 模型,在数据、模型和推理三个层面完成了一次全新技术升级。首先是数据层面——数据决定下限。基于 Unreal Engine 构建了大规模数据引擎,能够自动生成带有精确动作、相机位姿以及物理一致性的高质量交互数据,目前已经覆盖 1000+ 场景,对于这些数据按照 5s 时序间隔给所有数据生成了局部描述和全局描述。这些数据为世界模型学习真实的 " 动作—环境变化 " 关系提供了基础。
第二是模型层面——模型决定能力。设计了带有 Memory 机制的 DiT 架构,使模型不仅能够生成当前帧,还可以持续维护历史信息,从而解决长时序生成中的一致性问题,实现分钟级的稳定生成与记忆能力。
第三是推理层面——推理决定落地。通过一系列推理加速优化,包括少步采样、并行生成以及缓存机制(KV Cache)和 decoder 蒸馏等过程,实现了高效的实时推理能力。最终在 5B 模型规模下,实现 720P 分辨率、最高 40FPS 的实时生成。
整体来看,Matrix-Game 3.0 的核心在于:通过 " 数据—模型—推理 " 的协同优化,首次将开源世界模型推向了带有记忆能力的长时序一致性 + 高质量 + 实时交互的统一框架。

接着,昆仑万维发布 SkyReels V4 模型:下一代视听创作的全新范式。
当前,AI 视频不仅仅是一个工具,它正在重构整个视听创作的逻辑,成为下一代产业的核心基础设施。" 好的 AI 视频生成 " 对于普通用户来说,它意味着自由表达和可控可改;对于产业创作者,它意味着更低的门槛、更高的效率和更多的可能性。
SkyReels V4 通过四大技术突破——音画一体双流联合生成架构、全模态理解和精准控制、全模态强化学习体系和攻克电影级画质与高效生成的平衡难题,分别解决了音画同步、精准控制、一站式编辑和高效生成等行业痛点,将 AI 视频生成的普惠生产力和解决方案切实地赋予内容创作者和行业。
SkyReels V4 模型实力也得到了全球权威榜单的认可。在 Artificial Analysis Arena 的排名中(截至 2026 年 3 月 18 日评测结果),SkyReels V4 在多个核心赛道均名列前茅——在 Text to Video ( With Audio ) 赛道和 Image to Video ( With Audio ) 赛道,均位列全球第一;在 Text to Video ( No Audio ) 赛道,位列全球第二。
此外,SkyReels V4 同步推出了全场景开放 API 与行业解决方案,能够将 SkyReels V4 的强大能力开放给所有合作伙伴,共同推动视听产业的智能化升级。未来,SkyReels V4 致力于成为 AI 视听时代的技术灯塔,用技术打破创作的边界,赋能每一个创作者。

最后,Mureka V9 音乐大模型正式发布。Mureka V9 是一次更可控、更懂表达的创作升级。团队将重点进一步推进到 " 音乐创作意图的可控表达 " 上:不仅生成得更快、更清晰,也开始更准确地理解创作者在歌词段落中的具体表达诉求。
Mureka V9 在段落内文本控制、生成效率、混音质量与整体听感等多个关键维度持续进化,使 AI 音乐从 " 能够生成一首歌 ",进一步迈向 " 能够更稳定地按创作意图完成一首歌 ":
1. 段落内文本控制能力增强,生成更精准
2. 混音与音质表现继续提升,成品感更强
3. 人声表达更符合创作意图,能恰到好处
4. 生成效率进一步提升,创作反馈更及时
5. 生成结果更丰富,重复感进一步缓解

Mureka V9 依然建立在 MusiCoT(Music Chain-of-Thought) 技术体系的持续演进之上,进一步强化了模型对音乐结构、歌词段落、表达意图与声音呈现之间关系的协同建模,使模型不再只是依据提示词 " 生成一段声音 ",而是能以更接近真实创作逻辑的方式,理解 " 这一段该唱什么、怎么唱、为什么要这样推进 "。
可以理解为,MusiCoT 在 Mureka V9 中进一步融合了对歌词段落设计、语义重心与音乐组织方式的细粒度思考,让模型在旋律推进、段落表达、音色安排与整体完成度之间建立更稳定的内在一致性。
如果说传统音乐时代的平台,连接的是歌曲、歌手和听众;那么 AI 音乐时代的平台,连接的将是所有人的意图、生成、编辑、二创、分发和表达。Mureka 想推动的,是 AI 音乐从生成工具走向创作系统,从单次输出走向版本化工作流,从做一首歌走向持续共创,从功能集合走向平台能力。我们希望把音乐从少数人的专业技能,变成更多人的表达语言。
从 Matrix-Game 3.0 实现 " 场景 Demo" 到 " 真实可玩 " 的跨越,到 SkyReels V4 登顶全球 AI 视频大模型榜首,再到 Mureka V9 推动 AI 音乐向高质感、强情感升级,每一项突破都令人振奋,每一个成果都彰显着中国 AIGC 技术的全球竞争力。


登录后才可以发布评论哦
打开小程序可以发布评论哦