驱动之家 5小时前
NVIDIA拿下开源AI模型第一!Nemotron 3 Super击败Kimi、DeepSeek登顶
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 5 月 6 日消息,NVIDIA 宣布旗下开源大模型 Nemotron 3 Super 登上 EnterpriseOps-Gym 排行榜开源类别首位,以平均 27.3 分的成绩击败 Kimi-K2.5、DeepSeek v3.2、MiniMax m2.7 及 GPT-OSS-120B 等众多竞争对手。

具体排名显示,Kimi-K2.5 以 26.2 分位列第二,DeepSeek v3.2 以 23.8 分排在第三,MiniMax m2.7 以 23.0 分紧随其后,GPT-OSS-120B 以 17.1 分位列第五。

Nemotron 3 Super 是 NVIDIA 在今年 3 月 GTC 大会上发布的混合专家模型,总参数量达到 1200 亿,但每次推理仅激活其中 120 亿参数,在保持模型知识密度的同时大幅降低推理开销。

该模型采用了多项关键技术。潜在混合专家架构通过压缩输入数据,能够在相同推理成本下激活并调用多达四倍数量的 " 专家子网络 "(专业化的神经网络模块)来处理任务。

Nemotron 3 Super 还原生支持 100 万 token 上下文窗口,在长时间任务中可保持长期记忆,有效避免目标偏移问题。其吞吐量较上一代 Nemotron Super 提升超过五倍。

在硬件适配方面,该模型针对 NVIDIA Blackwell 架构进行原生 NVFP4 预训练,在 B200 上的推理速度比 H100 使用 FP8 格式快四倍,同时保持模型精度。

此外,借助 NVIDIA NeMo Gym 与 NeMo RL 框架,该模型在 21 种环境配置下完成了多环境强化学习后训练,总计部署了超过 120 万次训练环境。

NVIDIA Nemotron 3 系列开源模型覆盖 Nano、Super 和 Ultra 三条产品线。NVIDIA 还同步推出了 Nemotron 3 Nano Omni,宣称可将 AI 吞吐量提升九倍。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

开源 nvidia ai 吞吐量 神经网络
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论