驱动之家 03-18
恐怖的40PB/s性能 NVIDIA将在国内推全新LPU芯片:不降级、不搞特供
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 3 月 18 日消息,昨天的 GTC 大会上,NVIDIA 发布了多款 AI 系统,还正式推出了全新的 LPU 芯片—— Groq 3 LPU,这是去年 200 亿美元收购 Groq 技术后的产物。

相比 AI GPU 芯片偏重大模型训练,Groq 3 LPU 则是专为 AI 推理而生的,具有低延迟、长上下文等优势,可以与 Vera Rubin 搭配使用,支撑 AI 全流程落地。

好消息是,这个 LPU 芯片国内也有希望用上,外媒援引消息人士的说法称 NVIDIA 准备推出一款可销往国内市场的 Groq 芯片。

不同于之前的 GPU 芯片要阉割性能之后才能出口,这次的 Groq 芯片不会阉割规格,而且也不是 H20 那样的国内特供版。

不阉割不搞特供,这样的 Groq 芯片显然在国内市场销售也会减少很多阻力,不过最大的问题还是美国的审查能否通过,这就要看黄仁勋如何说服美国总统了。

但是话说回来,NVIDIA 就算不搞阉割特供 Groq 芯片给国内,也不好说未来在国内推出的 Groq 芯片就是昨天发布的 Groq 3 LPU,因为后者当前的性能、规格也是非常强的。

这个产品的单芯片叫做 LPU30,三星代工制造,整合 500MB SRAM 缓存,980 亿晶体管,FP8 性格 1.2PFLOPS,AI 算力性能远不如 Rubin GPU,但 150TB/s 的带宽远高于 HBM4 的 22TB/s。

Groq 3 LPU 芯片会以 Groq 3 LPX 机架的形式出现,可集成 256 个 LPU30 芯片,缓存容量达到了 128GB,内存总带宽则提升到了 40PB/s,互联带宽也有 640TB/s。

总的来说,LPU 论 AI 算力是没法跟 GPU 比的,但是 SRAM 的带宽无疑碾压 HBM4,而且延迟更低,两种芯片适合的场合不一样,并非谁取代谁的关系,接下来 LPU 的销售会有一波爆发。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

芯片 nvidia ai gpu 美国
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论