驱动之家 2小时前
NVIDIA、AMD、谷歌AI卡实测对比:N卡仍有5倍性价比优势
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 11 月 28 日消息,在 AI 大模型训练 / 推理上,NVIDIA 的显卡无疑是目前使用最多的,AMD、Intel 及谷歌等公司份额没法比,问题来了,NVIDIA 到底强在哪里?

这里不用提什么 CUDA 生态优势,也不用说 AI 算子等参数,Artificial Analysis 直接对比了当前的三大推理方案的实际表现,分别使用谷歌 TPU v6e、AMD MI300X 及 NVIDIA H100/B200 来对比。

测试的内容比较多,不过我们只看一个综合性的就够了,在 30Token/s 速度下每百万输入输出的成本,跑的模型是 Llama 3.3 70B。

在这方面,H100 的成本是 1.06 美元,H200 也只有 1.17 美元,B200 TensorRT 是 1.23 美元,B200 是 1.45 美元,AMD 的 MI300X 是 2.24 美元,而谷歌的 TPU v6e 是 5.13 美元。

对比下来,N 卡相对 AMD 是至少 2 倍的性价比优势,对比谷歌则是 5 倍左右的优势,差距非常明显。

哪怕是用 NVIDIA 最新最贵的 B200 显卡,成本提升也不算太明显,毕竟性能是大增的,比 AMD 及谷歌的依然有很大优势。

现在可以说,AMD 及谷歌当前的 AI 卡还是差不少的,但两家下一代产品提升很猛,AMD 的 MI400X 系列最多 432GB HBM4 显存,谷歌的 TPU v7 据说也是几倍的性能提升,届时可能改写这个评测结果。

当然,NVIDIA 也不会坐以待毙,下一代的 Rubin 显卡也发布了,明年也会陆续上市,有望进一步扩大差距。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

谷歌 amd nvidia ai 生态优势
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论