量子位 昨天
融资34亿!谷歌前TPU员工创业新型芯片,卡帕西也投了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

比英伟达芯片更好,谷歌前 TPU 员工创业公司MatX正在受到关注。

之所以注意到这家公司,这还得感谢宣传委员卡帕西(没错,MatX 最新 B 轮 5 亿美元融资他也投了)。

卡帕西表示,参考英伟达 4.6 万亿美元市值,MatX 正在向 " 当今最有趣、回报也最高的智力难题 " 发起挑战。

MatX 团队非常出色,我很荣幸能参与其中,并祝贺他们获得融资!

当然也不光是卡帕西背书,MatX 也有自己的 " 杀手锏 " ——一条不同于当下主流 AI 芯片路线的技术选择

过去几年,AI 芯片阵营大致分成两派:

一派以英伟达、谷歌为代表,重押高带宽内存 HBM,优先解决大规模训练和吞吐问题;

另一派则以 Cerebras Systems(年初还获得了 AMD 投资)为代表,强调片上 SRAM(静态随机存储器)和低延迟,主打推理场景。

而 MatX 的态度是:小孩子才做选择,成年人当然是都要。

在他们看来,真正的胜负手不在于单点技能拉满,而在于能否在同一颗芯片里,把 " 训练级吞吐 " 和 " 推理级低延迟 " 同时做好——尤其是在长上下文、Agent 循环这些更复杂的真实工作流中。

而且不止说说而已,据 MatX 创始人透露,他们目前正在打造一款"LLM 专用芯片 "MatX One

其吞吐量远高于其他任何芯片,同时延迟也最低。

所以,MatX 到底是谁?它真能对霸主英伟达构成威胁吗?

咱这就接着瞧,接着看。

谁是 MatX?

关于 MatX 的第一印象,谷歌二字始终是绕不开的。

没办法,谁让两位创始人都来自谷歌 TPU 团队。

创始人兼 CEO Reiner Pope,身上有着很明显的 " 软件 " 标签。

2012 年加入谷歌时,主要负责谷歌地图的部分网页开发,并逐渐成为 5 人团小主管。

后来又设计并参与了谷歌大型机器学习系统 Sibyl 的开发,该系统曾为 YouTube、Gmail、Android 等提供重要支撑,直到 2017 年被更灵活、支持深度学习的 TensorFlow Extended(TFX)平台逐步取代。

也是在这一年,他开始接触芯片设计——加入谷歌内部项目孵化平台 " 登月工厂 "(Moonshot Factory),并专注于下一代计算的架构设计。

自此,他逐渐从 " 做系统的人 ",变成了 " 理解模型与硬件如何协同的人 "。

从 2019 年起,他开始担任谷歌机器学习芯片的技术主管兼架构师,连续参与了两代 ML 芯片的设计,并成为第二代芯片的主要负责人之一。

后来更是参与了谷歌当时规模最大的模型—— PaLM 的训练,而且是 PaLM 的软件 / 硬件效率负责人。

可以说,Reiner Pope 是早期谷歌 TPU 软件栈的重要成员之一,而且不是单纯做芯片电路的人,他懂得如何让芯片真正跑起大模型。

创始人兼 CTO Mike Gunter,则刚好有着很明显的 " 硬件 " 标签。

而且他属于那种从底层逻辑电路一路打到系统架构的老派硬件工程师。

加入谷歌前,他就已经是一名连续创业者——早在 2000 年便联合创办无线通信芯片公司 Gossett and Gunter,后来公司被谷歌收购,他也随之加入谷歌。

而在谷歌,他做过无线通信、多天线系统、ASIC 设计,甚至是谷歌内部第一位逻辑设计师、第一位被 " 正式付薪写 Haskell" 的工程师。

从 2008 年开始,他便主导了谷歌第一个硬件加速项目,该项目最终把谷歌计算密集型任务的性价比提高了 10 倍以上。

再到后来,他和 Reiner Pope 的交集开始变多——

Sibyl 系统的设计和实现有他、和 Reiner Pope 几乎同一时间加入 Moonshot Factory、ML 芯片项目有他(任首席工程师)等等。

总之,如果说 Reiner Pope 是在模型规模爆炸时代,解决 " 模型如何高效跑在芯片上 " 的问题,那 Mike Gunter 更像是在更早阶段思考 " 芯片应该如何为未来的计算形态而设计 "。

他俩合起来几乎把 " 软硬全栈 " 走了一遍。一个站在模型效率前线,参与过 PaLM 级别的训练;另一个站在芯片最底层,从晶体管和微架构一路搭到系统。

软硬结合这一点,也正是 MatX 身上很大的一个看点,体现在正在设计的 MatX One 芯片上即为——

MatX One 芯片基于一种可拆分的脉动阵列(splittable systolic array)架构。该架构既继承了大型脉动阵列在能效和面积效率方面的优势,又能够在尺寸更小、形状更灵活的矩阵计算中保持较高的利用率。

这款芯片将 SRAM 优先设计(SRAM-first designs)的低延迟特性与 HBM(高带宽内存)支持长上下文处理的能力结合在一起。在此基础上,再配合一套全新的数值计算方案(numerics 设计),使其在大语言模型上的吞吐量超过目前所有已公布的系统,同时在延迟方面达到 SRAM-first 设计的水平。

为便于理解,我们可以结合卡帕西的观点来解释。

在卡帕西看来,随着 token 用量的激增,如今大家面临的问题是——

怎么把 " 算力 " 和 " 内存 " 调配到刚刚好,才能让大模型更快、更便宜地吐出更多 token?

很多人没有意识到,目前市面上两种主流的芯片路线都有其局限性:

以英伟达为代表的 HBM 路线,其核心逻辑在于 " 大模型训练是带宽游戏 ",即模型越大、参数越多、上下文越长,就越需要把权重和激活值在芯片之间高速搬运。

于是堆 HBM、堆带宽、堆互连,成为主流解法,它解决的是吞吐问题。

而以 Cerebras Systems 为代表的片上 SRAM 路线,其核心逻辑在于 " 推理时代的关键不是带宽,而是响应速度 "。

于是把尽可能多的数据放在片上 SRAM 中成为解法,如此一来便能减少外部访存,降低单次查询延迟,后者解决的是延迟问题。

但问题在于,今天的大模型,其训练和推理不再是泾渭分明的两个世界——

如果只强调 HBM 带宽,延迟难以下降;如果只强调片上 SRAM,规模又难以扩展。

所以卡帕西就问了,是否存在一种更优的物理基板,使计算与内存的比例从一开始就为大模型而设计?

MatX 的回答是:与其在既有架构上打补丁,不如从架构层面重构算力与存储的关系

没错,就是从零开始。

2022 年从谷歌离职创办 MatX,二人便下定决心要从零打造一款更优秀的芯片——

目标是设计一条全新的、具有竞争力的硬件产品线,融合其他芯片制造商使用的两种截然不同的方法。

MatX 试图证明,未来的 AI 芯片不必在 " 速度 " 和 " 容量 " 之间痛苦权衡,因为真正的软硬结合,可以让芯片同时拥有两者的优势。按 Reiner Pope 的话来说就是:

实际上可以在同一个产品中同时做到这两点,而且这样会得到一个更好的产品。

而正在孕育的 MatX One,毫无疑问便承载着这一理念。

一旦成功,同时实现更高的吞吐量 + 更低的延迟便意味着——

在同样的预算下,你可以训练更大的模型、跑更长的上下文、支撑更复杂的 Agent 循环,同时让每一次用户交互都更快地得到响应。

这正是卡帕西所说的 " 设计最优物理基板,编排内存与计算,以求最快、最便宜地获取 token" 的现实注脚。

显而易见,从团队到理念到产品,MatX 已经做足了准备。

而对这样一支团队,市场也给予了足够的注目和支持。

明年量产、已获数十亿融资

截至目前,这家公司已经获得数十亿美元融资

MatX 官网显示,2025 年 3 月这家公司获得了 1 亿美元 A 轮融资,领投方为 Anthropic 早期投资者 Spark Capital。

顶级量化 Jane Street Group、知名投资人 Daniel Gross(早期投资了 Figma/Notion 等)、Nat Friedman(GitHub 前 CEO)、Adam D ‘ Angelo(Quora 联创兼 CEO)等均参与投资。

当时 Reiner Pope 还对 MatX 做了一个阶段性总结:

两年内,我们在机器学习数值计算、芯片设计和实现、软件和系统设计等方面的所有技术投入都得到了验证,并建立了所有必要的合作伙伴关系,从而开发出了我们的芯片。

凭借这一轮投资,我们现在拥有足够的资金将我们的系统推向市场。

而在快速发展近一年后,规模接近 100 人的 MatX 这次又获得了最新 5 亿美元(约合人民币 34 亿元)B 轮融资,而且阵容还在增加。

具体而言,B 轮领投方变成了两家:Jane Street 和 Situational Awareness LP。

原有投资方 Spark Capital、Triatomic Capital、Harpoon Ventures 等继续跟投,而且还新增了 Dwarkesh Patel、卡帕西、 Stripe 联创兼 CEO Patrick Collison 及其弟弟等人。

Reiner Pope 继续总结陈词:

创立 MatX 的初衷是,我们认为最适合 LLM 的芯片应该从根本上进行设计,并深刻理解 LLM 的需求及其发展趋势。为了打造这样一款芯片,我们甚至愿意放弃小模型性能、低容量工作负载,以及编程的便捷性。

可以说,此举已经将人们对 MatX One 的好奇心拉满了。

内部测试表明,根据每平方毫米的计算性能指标,其芯片性能可以超越英伟达即将推出的 Rubin Ultra 产品。

据悉 MatX 将与台积电展开合作,目标是今年完成芯片的全部设计,并于 2027 年开始出货,主要销售对象为少数几家领先的人工智能实验室。

MatX 表示,这笔融资将帮助公司预留产能和零部件,以确保一旦准备就绪就能迅速发货。

这一轮融资让我们几乎与那些拥有巨额资金的公司站在了同一起跑线上。

One More Thing

联想到刚被老黄打包收购的 Groq,我们实在想看 MatX 的未来。

毕竟这两家手上拿的剧本可太一致了——

同是谷歌 TPU 核心成员创业、同是要挑战英伟达芯片霸主地位。

结果呢,老黄甩出 200 亿美元就把 Groq 打包带走了——包括创始人和 90% 团队员工。

更别说 MatX 创始人兼 CTO Mike Gunter 还有被谷歌打包收购的经历……

只能说,如果 MatX 真做出了比英伟达芯片更好的东西,不说老黄有没有想法,谷歌可能也去争一争也不一定。

参考链接:

[ 1 ] https://x.com/karpathy/status/2026452488434651264?s=20

[ 2 ] https://www.bloomberg.com/news/articles/2026-02-24/ai-chip-startup-matx-raises-500-million-to-compete-with-nvidia?taid=699da2831348600001d29e78

—  欢迎 AI 产品从业者共建  

「AI 产品知识库」是量子位智库基于长期产品库追踪和用户行为数据推出的飞书知识库,旨在成为 AI 行业从业者、投资者、研究者的核心信息枢纽与决策支持平台。

一键关注 点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

谷歌 英伟达 ai芯片 融资 芯片
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论