钛媒体快报 09-12
蚂蚁、中国人民大学发布行业首个原生MoE扩散语言模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_font3.html

 

钛媒体 App 9 月 12 日消息,外滩大会上,蚂蚁集团和中国人民大学联合研发原生 MoE 架构扩散语言模型(dLLM ) LLaDA-MoE,在约 20T 数据上完成了从零训练 MoE 架构的扩散语言模型,验证了工业级大规模训练的扩展性和稳定性。该模型将在近期完全开源。(广角观察)

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

中国人民大学 外滩 广角 蚂蚁集团
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论