动点科技 11-06
腾讯云TI平台同步开放接入MoE模型“混元Large”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

今天,腾讯最新的 MoE 模型 " 混元 Large" 以及混元 3D 生成大模型 "Hunyuan3D-1.0" 正式开源。开发者可在 HuggingFace、Github 等技术社区直接下载。这次开源的腾讯混元 Large 模型,与腾讯混元 Pro、腾讯混元 Turbo 等不同尺寸的模型源于同一技术体系,已经在腾讯内部业务经过验证和广泛使用。腾讯元宝、微信公众号、小程序、微信读书、腾讯广告、腾讯游戏、腾讯会议等近 700 个内部业务和场景,都应用了混元大模型的能力。

腾讯混元 Large 模型总参数量 389B,激活参数量 52B ,上下文长度高达 256K。它采用国内外主流的 MoE 架构模型,推理成本远低于同等参数的稠密模型。在最新的公开评测中,腾讯混元 Large 在 CMMLU、MMLU、CEval、MATH 等多学科综合评测集以及中英文 NLP 任务、代码和数学等 9 大维度全面领先。

此外,腾讯混元 Large 模型已同步上架腾讯云 TI 平台。支持一键启动混元 Large 精调,帮助用户训练出满足业务需求的专属大模型,提升研发效率。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

逗玩.AI

逗玩.AI

ZAKER旗下AI智能创作平台

相关标签

腾讯 腾讯云 开源 混元大模型
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论