量子位 | 公众号
财大气粗的老黄 7 天内接连收购 Groq、AI21 Labs,总投入超 200 亿美元。
平安夜刚砸 200 亿把Groq的 "TPU 之父 " 团队打包带走;
转头又瞄准AI21 Labs,斥 20-30 亿美金将其收入麾下,还带走了 AI21 背后的 200 名顶尖 AI 博士。
而且,加之 9 月份 9 亿美元买下的Enfabrica,收购 3 连招之后,英伟达算是把 "硬件 - 网络 - 架构" 这条链子拉闭环了。

AI21 和 Groq 更适配
英伟达在 AI 训练市场的份额早已超过 90%,但推理市场却是另一番景象:
定制 ASIC 芯片抢占了 37% 部署份额,谷歌、博通等巨头虎视眈眈,市场正变得越来越分散。
黄仁勋显然不想在这场新较量中落后——抢人才就成了最直接的破局方式。
前几天的 Groq,不仅拿走了 LPU,也带走了公司 90% 的员工。
最新瞄准的 AI21,表面看是一家估值 14 亿美金的以色列初创公司,实则又是个 " 博士天团聚集地 "。
三位创始人是科技圈顶流配置。

董事长 Amnon Shashua 是希伯来大学讲席教授,手里握着 140 多项专利,1999 年创办的 Mobileye 后来以 153 亿美元卖给英特尔,让他直接跻身以色列前 20 富豪;
联合 CEO Ori Goshen 是连续创业者,前两家公司不是被收购就是成了行业标杆;
还有斯坦福荣誉退休教授 Yoav Shoham,曾是谷歌首席科学家,创业项目多次被巨头打包带走。
这群大佬带领的 200 多位博士,手里还握着 Jamba 混合架构这张王牌。
现在,英伟达拥有了这个天团,于是事情就变得有趣了。

此前收购的 Groq,它们的 LPU 使用的并不是 HBM,而是速度极快,但内存受限的 SRAM。
纯 Transformer 模型在这上面表现不佳,因为 KV 缓存会随着上下文长度爆炸式增长。
而 AI21 博士天团手里的 Jamba 架构正是 Groq 这类内存受限的推理硅片所需要的。
Jamba 采用Mamba-Transformer混搭设计,长文本处理速度比同类模型快 2.5 倍,相比 DeepSeek、Llama、谷歌效率提升 2-5 倍,还能在 256K 上下文里轻松跑起 4GBKV 缓存。
收了 Groq 的 LPU 和核心团队;拿下 AI21,又把 200 个博士收入麾下,还能直接补上推理架构的短板。
英伟达正式开始了对谷歌 TPU 冲击的回应……

三重收购组合拳
回头再看三重收购的组合拳,每一步都被老黄算得精准。
之前 9 亿美元带走了 Enfabrica 和 CEO Rochan Sankar 及其核心团队,补上了网络技术,解决数据传输的卡脖子问题。
前几天收购 Groq 的时候,拿技术又得人心。
不仅将推理硅握在手里,连带着 "TPU 之父 "Jonathan Ross 领衔的核心团队一起,将 90% 的员工打包转入英伟达。
而且人均套现 500 万美元,连工作不满一年的员工都被取消了 " 悬崖期 ",老黄这波操作也算得上良心。
AI21 负责 LLM 架构,把算力转化成能落地的商业解决方案。
三者一结合,英伟达在推理市场的 " 硬件 - 网络 - 架构 " 闭环直接成型。
以前大家还在猜 "GPU 会不会被挤出推理赛道 ",现在老黄用 200 多亿美金给出了答案——
不仅要守住,还要通过垂直整合把优势拉满。
谷歌已经用 TPU 证明,GPU 不是 AI 推理的唯一解,而老黄这波操作,就是要通过人才和技术的双重布局,对抗谷歌、博通的威胁。
三重收购、200 个博士背后,是能让推理效率翻倍的技术,也是能对抗谷歌、博通的底气。


