作者 | 陈骏达
编辑 | 云鹏
智东西 6 月 30 日报道,今天,国内 AI 开源社区魔搭在北京举办了其首届开发者大会。截至 2025 年 6 月,魔搭社区已经拥有超 500 家贡献机构,模型总量超 7 万个,并服务了 36 个国家超 1600 万开发者。此外,已经有超过 4000 个 MCP 服务在魔搭 MCP 广场上发布,支持开发者超过 1 亿次的调用。
魔搭社区如今已是中国最大的 AI 开源社区,DeepSeek 系列模型、MiniMax 多款模型、腾讯混元系列模型许多业界头部模型选择在魔搭社区开源。这一社区可提供模型体验、下载、调优、训练、推理、部署等服务,覆盖 LLM、对话、语音、文生图、图生视频、AI 作曲等多个领域。
为进一步激励开发者对社区的参与,周靖人在大会现场发布了 " 魔搭开发者勋章激励计划 ",为在平台上作出贡献的开发者赋予荣誉和奖励,勋章获得者可以获得平台免费 GPU 算力支持,以及 AIGC 专区高阶训练券、高阶生图券等奖励,用于模型生成、模型训练、应用搭建等场景。
大会期间,还有多位嘉宾分享了他们对具身智能、端侧 AI 等行业重要趋势的见解。通义千问负责人林俊旸更是提前预告,该团队将于下个月推出编程能力更强的 Coder 模型。
会后,周靖人接受了智东西等少数媒体的采访。周靖人向智东西说道,魔搭既是一个社区,也是一个技术产品,要随着 AI 技术的发展而发展。魔搭正在快速迭代其对新技术、新产品、新工具的支持,也希望有更多开发者能加入到魔搭社区本身的开发过程中。
一、魔搭周靖人:模型已成重要生产元素,要帮开发者 " 找、用、学、玩 "
周靖人认为,模型现已成为重要的生产元素,并成为了新一代应用的核心。在大模型技术快速迭代的过程中,开源开放是大模型生态发展的核心力量。
魔搭在成立之初就遵循了开放、中立、非盈利的原则,这一理念吸引了诸多开发者和企业共同参与生态建设。回顾发展历程,魔搭见证了许多顶尖开源模型的发布。
2023 年,业界第一个文本生成视频的开源模型在魔搭社区发布。同年,百川智能、上海人工智能实验室书生系列大模型、零一万物 Yi 模型等业界领先模型均在魔搭社区开源首发。
2024 年,魔搭社区面向 AI 创作者与设计师群体推出 AIGC 专区,提供图片、视频创作和模型训练等服务。
2025 年,DeepSeek 系列模型、阶跃星辰开源的 Step-Video-T2V 视频生成模型和 Step-Audio 语音交互模型在魔搭社区首发。
开源开放降低了开发者和企业使用先进 AI 技术的门槛,并且无需担忧因为使用某一项技术而被绑定。模型开发者能从中获取社区反馈和建议,从而形成正向循环。
具体到服务层面,魔搭能在找模型、用模型、学模型、玩模型这四大领域为模型算法开发者、AI 应用开发者和模型爱好者提供帮助。
社区对模型家族进行了分类,并配备丰富的案例和 API 接口,帮助用户快速将模型集成到实际业务中。同时,云端 Notebook 功能提供了低成本的开发环境,便于用户高效探索业务场景。
为简化大模型与工具的对接流程,魔搭推出了 MCP 广场,汇聚数千款 MCP 服务及托管方案,并开放第三方集成接口。支付宝、MiniMax 等创新服务在此独家首发,进一步拓展了生态应用。
在开发支持方面,魔搭提供了涵盖训练、推理、微调和评估等流程的 SDK 工具包,目前装机量已突破 900 万次。
周靖人分享,在这样一个技术变革的时代里,能够让更多的人使用 AI,能够让 AI 的使用触手可及,普惠到社会的方方面面,是魔搭与开发者努力的重要方向。
二、无问芯穹汪玉:端侧 AI 面临算力能效困局,软硬件协同设计可实现突破
大会主论坛上,清华大学电子工程系系主任、无问芯穹发起人汪玉从硬件与算法的协同优化角度,探讨了端侧 AI 的挑战与未来。汪玉认为,AI 技术正经历从云端向终端设备的迁移,随着 AI 模型规模的扩大,端侧设备在算力和能效上面临巨大压力。
与云端侧重多用户并发不同,端侧 AI 更强调低延时响应和单用户体验,当前端侧 AI 的理想推理速度大约为 100-1000token/s,但端侧 AI 硬件的能力离这一目标还存在显著差距。
汪玉为上述问题提出了多个突破方向:通过芯片架构创新和存算一体技术提升硬件性能,采用模型压缩技术开发高效小模型,以及针对具体应用场景进行算法优化适配。
他特别强调,国内产业需要打通从算法设计、软件开发到硬件制造的全栈协同创新。在硬件层面,其团队已在 FPGA 上实现 55token/s 的推理速度。
汪玉特别看好具身智能的发展前景,认为这是将数字智能延伸至物理空间的重要方向。他呼吁产业界通过软硬件协同设计、共建数据生态,共同推动端侧 AI 和机器人技术的创新发展,构建面向未来的智能算力基础设施。
三、星海图赵行:机器人硬件形态趋于收敛,具身智能需要自己的 "ImageNet"
主论坛上,清华大学特别研究员、星海图联合创始人赵行进一步分享了具身智能相关的话题。他认为,当前以 ChatGPT 为代表的离身智能(Disembodied AI)已通过图灵测试,但具身智能(Embodied AI)仍处于早期阶段,其核心瓶颈在于如何在正确的机器人本体上获取高质量数据,并构建可泛化的模型。
赵行强调,具身智能的突破需要类似计算机视觉领域 ImageNet 的标准化数据集,但由于机器人需要进行闭环测试,且硬件形态各异,数据采集和模型开发更为复杂。
标准化的硬件平台是突破上述问题的关键。星海图已经发布了 3 款机器人本体,计划在今年年底前采集超过 1 万小时的真实世界数据,涵盖工业、家庭、商业等多样化任务。
在模型架构上,星海图提出了 " 快慢双系统 " 的具身基础模型(Embodied Foundation Model),结合多模态大语言模型(慢思考)和轻量化执行模型(快执行),实现任务规划与实时闭环控制。
展望未来,赵行预测机器人硬件形态将趋于收敛,基础模型的泛化能力将在 2026 年迎来爆发,世界模型技术将增强机器人的预测与自主学习能力。他呼吁全球开发者共同构建具身智能生态,推动其在真实场景的大规模落地。
四、通义千问林俊旸:预训练技术仍有空间,Qwen Coder 模型下月发布
在下午的主题论坛上,通义千问负责人林俊旸分享了他们的开源模型实践经验。
今年 4 月底,Qwen3 系列模型迎来发布。模型参数量从 0.6B 到 -235B 不等。林俊旸称,这一代模型主要有三大特点:
混合推理模式:Qwen3 全系列都支持混合推理,也就是说在一款模型内实现推理和非推理模式,并允许开发者自主选择模型的推理长度。但林俊旸认为,这还不是推理模型的理想形态,未来模型还需要具备自己决定是否进行推理的能力。
更多语言支持:Qwen 从 1.5 系列就开始关注多语言,目前 Qwen3 支持 119 种语言和方言,在下一版本 Qwen 会扩展对非洲地区语言的支持。
MCP 增强:Qwen3 在训练数据方面针对 MCP 进行了增强,这本质上提升了模型的 Agent 能力。
林俊旸透露,Qwen 团队内部更加关注 MoE 模型 Qwen3-30B-A3B 和稠密模型 Qwen3-4B。Qwen3-30B-A3B 在能力和部署难度上实现了平衡,在 Qwen 团队的内部测试中甚至超过了 14B 的稠密模型。
Qwen3-4B 专为手机端侧设计,做了极致的剪枝和蒸馏,在许多场景的性能已经接近 Qwen 上一代 72B 模型的表现。
除了 Qwen3 之外,今年 Qwen 团队还带来了 Qwen-3 系列的嵌入模型、重排序模型以及全模态模型 Qwen2.5-Omni、多模态模型 Qwen-VLO 等等。
谈及未来,林俊旸称,业内已经从训练模型的阶段逐渐转变到训练 Agent 的阶段,预训练技术发挥的空间仍然很大,可以通过打造强大的 teacher 超大型模型,最终做出适用于 API 调用的模型。
通义千问计划通过环境反馈的强化学习,教会模型实现长时程的推理。在输入和输出侧,模型的模态也会不断增加。下个月,通义千问将会发布适用于编程场景的 Coder 模型。
结语:中国开源 AI 生态狂飙,魔搭想成为 " 首选社区 "
作为国内代表性的开源 AI 社区,魔搭的发展也可谓是中国开源 AI 的缩影。过去 2 年多以来,中国 AI 开源生态迅猛发展,诸如阿里、DeepSeek 等企业的开源模型在世界范围内都具有较强的影响力。
同时,中国的开发者们也在为开源生态不断贡献新工具、新技术,相关开源成果在魔搭等平台开放获取,最终给全球开发者都带来了实实在在的价值。
周靖人称,他们希望将魔搭打造为 AI 开发者交流的首选社区,实现开发者与社区的共同成长,让更多的创新想法在魔搭社区碰撞,更多的 AI 应用在魔搭社区进行孵化,推动下一波 AI 技术的发展。
登录后才可以发布评论哦
打开小程序可以发布评论哦