英伟达的创始人兼 CEO 老黄,虽然 60 多岁了,但看着他最近一系列的密集运作,体力真是令我钦佩。
前不久,英伟达 50 亿美金投资了 Intel,占股大概有 4%,实现了这对世纪冤家的 " 欢喜大结盟 "。
而就在昨天,英伟达宣布 " 霸凌式投资 "OpenAI 1000 亿美金:现阶段一分不给。
等到 OpenAI 用英伟达的卡每建成 1GW 的数据中心后,才打款十分之一,也就是 100 亿美金,而为了这 1GW 的数据中心,OpenAI 要花 500 亿~600 亿美金,其中 300 亿~350 亿美金要给英伟达。
而 OpenAI 此前还和甲骨文签了 5 年 3000 亿美金的云服务合同,为了提供这个服务,甲骨文还得去买英伟达的卡。
而甲骨文自己手头根本没有那么多钱,甲骨文客户给它的钱都属于还没付的应收账款,它自己必须去融资或者发债,才能 " 卖肾买卡 "。
老黄:4 万亿美金市值,就是这么来的。
最后,昨天阿里宣布了和英伟达的一系列合作,Physical AI 之类的概念一大堆,其实开发者由此可以在阿里云上使用英伟达的软件栈。但在我看来,其关键在于,市场似乎认为英伟达找到了在无法直接卖卡给中国公司的困局下,依然和中国公司保持紧密合作的妥协方案,这对它的 " 护城河 " 尤为关键。
今天这篇文章,是 Ben Thompson 最近连续几篇关于英伟达文章的合集,我把不相关的内容去掉了,最后是 Sam Altman 今天凌晨发表的一篇小博客的译文,他解释了下为何 OpenAI 最近会疯狂买算力(也就是为什么老黄最近会春风得意),我给合成一篇发表了(有些敏感词我用同义词替代了)。
以下为正文。
今年二季度,英伟达的当季营业额达到了 467 亿美元,基本符合分析师预期。但是,关键的数据中心部门 data-center segment(就是卖芯片的部门)的营收,增长了 56%,但仍然略低于分析师预期的 413 亿美元。
英伟达预测,第三财季营收为 540 亿美元,略高于华尔街分析师的一致预期。但是,在连续多个业绩大增的季度之后,这一营收增速被认为不过如此,并引发了人们对于 AI 芯片需求增长可能已趋于瓶颈期的担忧。
当时在财报发布后,英伟达股价三连跌。
但是,我认为,分析英伟达财报最重要的是看 " 供需平衡 "。
一年半前,我就指出过这一点,现在仍然如此:只要市场上对英伟达 GPU 的需求超过供应,英伟达的销售额就取决于他们能生产出多少 GPU。供应当然在增加,这也正是英伟达销售额能持续攀升的原因,但是,假设供应只是线性增长,那么到头来,随着基数变得越来越大,因为英伟达此前的营收本身已实现指数级增长,英伟达的增长率这个数字就势必会变小了。
从一个有趣的角度来看待英伟达和中国,以及黄仁勋极力想向该国出售产品的原因,就是英伟达 " 护城河 moat" 的本质。黄仁勋在回答一个关于 ASIC 的提问时说道:
" 我们先谈谈 ASIC,很多项目都起步了,许多初创公司涌现,但真正能打造产品的少之又少。原因很简单,这事儿太难了。加速计算 accelerated computing,不同于通用计算 general-purpose computing,你不能只是写个软件,然后编译成可在处理器上运行的代码。加速计算,涉及全栈的协同设计 full-stack co-design。而过去几年里,AI 工厂变得愈发复杂,因为问题规模激增。这真的是当今世界上最终极、最极端的计算机科学问题,所以全栈都很复杂。模型在飞速演进,从基于自回归的生成模型,到基于扩散的生成模型,再到混合模型和多模态模型。涌现出的不同模型,实在太多,要么是 Transformer 的衍生模型,要么是 Transformer 的衍化模型,数量之庞大令人望而生畏。"
" 而英伟达的一个优势,就是英伟达无处不在。所有云,都有我们的存在,每家计算机公司,都在用我们。从云端、到本地、再到边缘乃至机器人领域,我们都采用同一个编程模型。因此全球每种框架都支持英伟达。当你构建新的模型架构时,在英伟达上发布是最明智的选择。我们的平台具有多样性,既能适应任何架构演进,又遍布各处,并且我们加速了整个流程,从数据处理、预训练、到带有强化学习的后训练,一直到推理。所以,当你用英伟达平台构建数据中心时,其效用是最好的,设备寿命也长得多。"
上述回答,其实已经体现了护城河的两个层面。
第一,就是 CUDA 本身,英伟达控制了 GPU 的软件栈,这是默认选项,然后是 CUDA 的普及度,由于 CUDA 无处不在,这意味着你可以前往任何云厂商,也可以找到熟悉 CUDA 的开发者。
黄仁勋还说:" 再补充一点,除了刚才说的这些,这本质上已经成了一个极其复杂的系统级问题。大家总是谈论芯片本身,许多人谈论的 ASIC 就只有一个,也就是 GPU。但为了打造 Blackwell 平台和 Rubin 平台,我们还得打造 CPU 来连接高速内存,为 Agentic AI 提供所需的大容量、超高能效缓存,以此连接到 GPU,再连接到超级 NIC,再连接到纵向扩展交换机,也即 NVLink,如今已发展到第五代,然后再连接到横向扩展交换机,无论是 Quantum 还是 Spectrum-X 以太网,再进一步横跨交换机扩展,以便我们为那些拥有数吉瓦计算能力、互联网的 AI 超级工厂做好准备。我们称之为 Spectrum~XGS。所以,我们所做的一切复杂得难以置信,而且,现在这一切都是在极其庞大的规模下完成的。"
这就是护城河的第二部分:网络 networking。
我一直在讨论英伟达的 GPU,但实际上,GPU 是在系统层面协同工作的,尤其在训练方面。
而英伟达将多颗 GPU,联结为单一协调系统的能力,无人能及。这也成了一个重大的收入驱动力:本季度,2025 年 Q2,英伟达的网络业务收入达到 73 亿美元,已经超过了其 2019 年收购 Mellanox 时支付的价钱,而 Mellanox 正是其网络产品的基础。
这笔收购,堪称史上最成功的收购之一。
" 最后再说一点:我们之所以能进入所有云平台是有原因的,我们是最节能的,我们的每瓦性能 performance per watt,是任何计算平台中最好的。而在电力受限的数据中心,每瓦性能,直接驱动营收。各位也听我说过,在很多情况下,你买得越多,增长越快 the more you buy, the more you grow。再加上我们的每美元性能 performance per dollar,也就是性价比实在惊人,因此我们的利润率也极高。所以,采用英伟达 架构所带来的增长机会和毛利空间绝对是最优的。所以每家云服务商、每家初创公司、每家计算机公司都选择英伟达 ,我们真正提供的是 AI 工厂的一体化全栈解决方案。"
上述最后一点,也即第三点,我认为或许是英伟达在西方世界(注意是在西方)长期护城河中最关键的组成部分。
如果,AI 公司最终受到功耗限制,那么他们就必须最大化每瓦性能,只要英伟达还在这一指标上保持领先,他们高昂的价格,就物有所值。(关于 AI 大模型的性能虽然越来越强,但消耗的 tokens 却越来越多,可见这篇:Token 的成本下降 10 倍,但大模型公司却离盈利越来越远 AI 公司们如今陷入了一种囚徒困境:他们都必须提高模型性能,以领先竞争对手,但他们提高性能的方式,实际上摧毁了自身的盈利能力,与此同时,英伟达则扮演着那个收税人的角色:AI 公司亏得越多,英伟达赚得就越多。)
然而,在中国,功耗很可能不会是限制因素,因此,英伟达的护城河将更多地依赖 CUDA,而这一切的前提,是中国公司的大模型,的确使用英伟达的芯片来进行训练和推理。
让中国公司使用英伟达的芯片,其实确保了美国对主流 AI 软件栈的主导地位。但是反过来,如果中国公司不用英伟达芯片,其实不仅削弱了美国的控制力,而且对英伟达而言,将长期威胁其在世界各地的销售。
原因事关整体竞争格局,一旦由中国推出了开源 CUDA 的替代方案,且形成规模,不仅中国市场,全球市场上的英伟达芯片,都将面临竞争。
黄仁勋其实一直以来都在担忧,中国肯定是未来 AI 芯片最重要的市场之一,然而,即便不受到限制,可以自由销售,英伟达在该市场也没有可持续存在的差异化优势。
关于不久前,英伟达投资英特尔 50 亿的案子,Ben Thomson 认为这笔交易的最大输家,并非台积电,而是 AMD:
" 一直以来,AMD 区别于 Intel 之处,在于它不仅在 x86 CPU 领域展开竞争,还在 GPU 领域有所布局,这得益于其 2006 年收购了当时英伟达最大的竞争对手:ATI。但不幸的是,AMD 的软件实力向来不足,它既没有建立起像英伟达那样的 AI 软件栈,也不具备英伟达的网络能力。这意味着,同时拥有 CPU 和 GPU 业务,并未给 AMD 带来原本可能拥有的优势。如今,对于那些想要英伟达 GPU 又需要 x86 CPU 的公司来说,Intel 将成为显而易见的首选,而且这些 Intel CPU 还将拥有 AMD 所没有的另一项专有技术:比如 Thunderbolt。不过,需要指出的是,这种损失对 AMD 而言,更多只是错失良机。AMD 在只看重性能和总体拥有成本(Total Cost of Ownership)的领域,依然表现强劲,而且这一势头应会持续下去。实际上,你也可以说这笔交易在相当程度上延长了 x86 架构的生命力,而这归根结底对 AMD 也是有利的。"
附:Sam Altman 最新 Blog《丰裕的智能 Abundant Intelligence》
AI 服务的使用增长,令人惊叹,但我们预期未来会更加令人惊叹。
随着 AI 变得更聪明,获取 AI 将成为经济体发展的基本驱动力,甚至最终会成为一项基本人权,几乎所有人都会希望有更多的 AI 为自己工作。
为了能够提供世界所需,既提供运行这些模型的推理算力,也提供让它们持续变得更好的训练算力,我们正在发力铺设基建,以便显著扩大我们建设 AI 的雄心。
如果,AI 按照我们认为的轨迹进步,那么许多惊人的事情将成为可能。
也许,在 10 吉瓦的算力下,AI 能够找到治愈癌症的方法;也许,在 10 吉瓦的算力下,AI 能够为地球上的每一位学生提供个性化辅导。
如果,受到算力限制,我们就不得不在两者之间取舍 ...... 没有人愿意做这种选择,所以让我们尽快开始吧。
我们的愿景很简单,我们想打造一座工厂,每周都能产出 1 吉瓦的 AI 基础设施。
要把这件事执行出来,极其困难。达到这一里程碑,需要我们用上数年时间,并且要求在整个技术栈的每一层——从芯片、供电、建筑、机器人——都进行创新。
但我们一直在为此努力,并且相信这是可行的。在我们看来,这将是有史以来最酷、也最重要的基础设施项目。
我们对在美国大规模建设这些设施,格外兴奋。眼下,其他国家在建设芯片晶圆厂以及新的能源产能方面的速度,远快于我们,而我们希望扭转这一趋势。
在接下来的几个月里,我们将谈一谈部分规划,以及我们正在与之合作、把这一愿景变为现实的伙伴。今年晚些时候,我们会介绍我们的融资方式,鉴于如何提升算力是提升收入的关键所在 how increasing compute isthe literal key to increasing revenue,我们有一些有趣的新想法。
登录后才可以发布评论哦
打开小程序可以发布评论哦