快科技 3 月 18 日消息,昨天的 GTC 大会上,NVIDIA 发布了多款 AI 系统,还正式推出了全新的 LPU 芯片—— Groq 3 LPU,这是去年 200 亿美元收购 Groq 技术后的产物。
相比 AI GPU 芯片偏重大模型训练,Groq 3 LPU 则是专为 AI 推理而生的,具有低延迟、长上下文等优势,可以与 Vera Rubin 搭配使用,支撑 AI 全流程落地。
好消息是,这个 LPU 芯片国内也有希望用上,外媒援引消息人士的说法称 NVIDIA 准备推出一款可销往国内市场的 Groq 芯片。
不同于之前的 GPU 芯片要阉割性能之后才能出口,这次的 Groq 芯片不会阉割规格,而且也不是 H20 那样的国内特供版。
不阉割不搞特供,这样的 Groq 芯片显然在国内市场销售也会减少很多阻力,不过最大的问题还是美国的审查能否通过,这就要看黄仁勋如何说服美国总统了。
但是话说回来,NVIDIA 就算不搞阉割特供 Groq 芯片给国内,也不好说未来在国内推出的 Groq 芯片就是昨天发布的 Groq 3 LPU,因为后者当前的性能、规格也是非常强的。

这个产品的单芯片叫做 LPU30,三星代工制造,整合 500MB SRAM 缓存,980 亿晶体管,FP8 性格 1.2PFLOPS,AI 算力性能远不如 Rubin GPU,但 150TB/s 的带宽远高于 HBM4 的 22TB/s。
Groq 3 LPU 芯片会以 Groq 3 LPX 机架的形式出现,可集成 256 个 LPU30 芯片,缓存容量达到了 128GB,内存总带宽则提升到了 40PB/s,互联带宽也有 640TB/s。
总的来说,LPU 论 AI 算力是没法跟 GPU 比的,但是 SRAM 的带宽无疑碾压 HBM4,而且延迟更低,两种芯片适合的场合不一样,并非谁取代谁的关系,接下来 LPU 的销售会有一波爆发。




登录后才可以发布评论哦
打开小程序可以发布评论哦