钛媒体快报 03-10
字节攻克MoE架构关键瓶颈,训练成本节省40%
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

钛媒体 App 3 月 10 日消息,字节豆包大模型团队官宣开源一项针对 MoE 架构的关键优化技术,可将大模型训练效率提升 1.7 倍,成本节省 40%。据悉,该技术已实际应用于字节的万卡集群训练,累计帮助节省了数百万 GPU 小时训练算力。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

钛媒体 开源 gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论