"仅激活少量参数,性能即可‘比肩当下领先的主流模型’。"
作者:苏打
编辑:tuya
出品:财经涂鸦(ID:caijingtuya)
公司情报专家《财经涂鸦》获悉,9 月 1 日,美团宣布正式发布龙猫(LongCat-Flash-Chat)大模型,并同步开源。
作为一款非思考型基础模型,龙猫采用创新性混合专家模型(Mixture-of-Experts, MoE)架构,由于主要面向推理效率的设计和创新,该模型具有更快的推理速度,更适合耗时较长的复杂智能体应用。
目前,LongCat-Flash-Chat 已在 Github、Hugging Face 平台同步开源。
值得一提的是,龙猫已于 8 月 28 日启用名为 "LongCat" 的独立公众号,注册主体为北京三快科技有限公司,账号简介为 " 美团龙猫 Longcat 大模型官方账号 "。9 月 1 日,该公众号发布了第一篇也是截至目前唯一一篇文章,名为《美团正式发布并开源 LongCat-Flash-Chat,动态计算开启高效 AI 时代》。
来源:龙猫公众号截图
从性能方面看,美团表示,在仅激活少量参数的前提下,该模型依然可 " 比肩当下领先的主流模型 ",尤其在智能体任务中具备突出优势,实现了计算效率与性能的双重优化。
据介绍,LongCat-Flash 模型在架构层面引入 " 零计算专家(Zero-Computation Experts)" 机制,总参数量 560 B,每个 token 依据上下文需求仅激活 18.6B~31.3 B 参数,实现算力按需分配和高效利用。
通过算法和工程层面的联合设计,LongCat-Flash 在理论上的成本和速度都大幅领先行业同等规模、甚至规模更小的模型;通过系统优化,其在 H800 上可实现 100 tokens/s 的生成速度,在保持极速的同时,输出成本低至 5 元 / 百万 token。
同时,该模型在通用领域知识、智能体(Agentic)工具使用、编程及指令遵循方面均实现了显著的性能优势。
美团表示,已同步提供了分别基于 SGLang 和 vLLM 两种高效部署方案,以协助用户轻松部署、快速体验模型效果。此次开源仓库统一采用 MIT License,并允许用户利用模型输出、通过模型蒸馏等方式训练其他模型。
今年 3 月份,王兴曾于 2024 年第四季度及年度业绩会中强调," 当像 AI 这样具有根本性革命意义的技术到来时,唯一可行的策略是调动所有资源主动进攻 "。
他透露,美团自主研发的 " 龙猫 " 大语言模型已与外部模型协同应用,推动员工生产力得到显著提升。
例如在客服领域,基于自研模型打造的智能客服代理试点运营后,效率提升超 20%,客户满意度上升 7. 5 个百分点;在商务拓展中,AI 销售助手帮助团队在今年春节期间完成 120 万商户信息更新,使 BD 团队工作量减少 44%,平台商户信息准确率同步提升;技术团队使用的 AI 编程工具已集成至开发环境,目前公司 27% 的新代码由 AI 生成。
在 5 月份 Q1 业绩会中,美团又宣布于季内迭代了基础大语言模型,增强后的模型可在推理模式与非推理模式间无缝切换,且两种模式下的性能均达到国内领先模型水平。
同步更新的端到端语音交互模型,则在理解情感、语境等细微信息及进行自然语音对话方面展现出先进能力,性能已接近 GPT 4.0 水平。
不久前 Q2 业绩会中,管理层进一步表示,扩展了 AI 业务协助的场景覆盖范围,努力覆盖从简单日常任务到复杂操作的端到端工作流程,帮助商家降低成本、提高效率。
今年以来,美团已连续发布 AI Coding Agent 工具 NoCode、经营决策助手袋鼠参谋、酒店垂类 AI Agent 美团既白等多款垂直场景应用。
本文由公众号财经涂鸦(ID:caijingtuya)原创撰写,如需转载请联系涂鸦君。
添加涂鸦君个人微信(ID:tuyaclub)
加入【公司情报社群】
参与资本市场讨论
获取一手情报
登录后才可以发布评论哦
打开小程序可以发布评论哦