IT之家 02-15
京东开源JoyAI-LLM-Flash大模型:总参数48B,激活参数3B
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 2 月 15 日消息,京东昨天在 Hugging Face 平台开源了 JoyAI-LLM-Flash 大模型,拥有 3B 激活参数以及 48B 总参数,在 20 万亿文本 Token 上进行预训练,擅长前沿知识理解、推理能力、编程、智能体等方面

据介绍,这款模型拥有全新优化框架 FiberPO,能够将纤维丛理论(fiber bundle theory)引入强化学习,并在训练中使用 Muon 优化器,通过微调 SFT、DPO 以及强化学习(RL)进一步训练。

同时,这款模型结合了 Muon 优化器以及稠密 MTP(Multi-Token Prediction),解决了传统模型规模扩展时不稳定的问题,相比非 MTP 版本吞吐量提升 1.3x-1.7x。

IT 之家附该模型详细参数如下:

项目参数
架构混合专家模型 ( MoE )
总参数量48B
激活参数量3B
层数(含 Dense)40
Dense 层数量1
注意力隐藏维度2048
MoE 隐藏维度768
多头注意力数量32
专家个数256
每 Token 专家数8
共享专家数
1
词表大小129K
上下文长度128K
注意力机制MLA
激活函数SwiGLU

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

京东 it之家 开源 编程 吞吐量
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论