一个胖子的世界 前天
为了4万多亿美金市值,62岁的老黄拼了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

本文来自微信公众号:一个胖子的世界,作者:Ben Thompson,原文标题:《英伟达的三重护城河》,题图来自:视觉中国

英伟达的创始人兼 CEO 老黄,虽然 60 多岁了,但看着他最近一系列的密集运作,体力真是令我钦佩。

前不久,英伟达 50 亿美金投资了 Intel,占股大概有 4%,实现了这对世纪冤家的 " 欢喜大结盟 "。

而就在昨天,英伟达宣布 " 霸凌式投资 "OpenAI 1000 亿美金:现阶段一分不给。

等到 OpenAI 用英伟达的卡每建成 1GW 的数据中心后,才打款十分之一,也就是 100 亿美金,而为了这 1GW 的数据中心,OpenAI 要花 500 亿~600 亿美金,其中 300 亿~350 亿美金要给英伟达。

而 OpenAI 此前还和甲骨文签了 5 年 3000 亿美金的云服务合同,为了提供这个服务,甲骨文还得去买英伟达的卡。

而甲骨文自己手头根本没有那么多钱,甲骨文客户给它的钱都属于还没付的应收账款,它自己必须去融资或者发债,才能 " 卖肾买卡 "。

老黄:4 万亿美金市值,就是这么来的。

最后,昨天阿里宣布了和英伟达的一系列合作,Physical AI 之类的概念一大堆,其实开发者由此可以在阿里云上使用英伟达的软件栈。但在我看来,其关键在于,市场似乎认为英伟达找到了在无法直接卖卡给中国公司的困局下,依然和中国公司保持紧密合作的妥协方案,这对它的 " 护城河 " 尤为关键。

今天这篇文章,是 Ben Thompson 最近连续几篇关于英伟达文章的合集,我把不相关的内容去掉了,最后是 Sam Altman 今天凌晨发表的一篇小博客的译文,他解释了下为何 OpenAI 最近会疯狂买算力(也就是为什么老黄最近会春风得意),我给合成一篇发表了(有些敏感词我用同义词替代了)。

以下为正文。

今年二季度,英伟达的当季营业额达到了 467 亿美元,基本符合分析师预期。但是,关键的数据中心部门 data-center segment(就是卖芯片的部门)的营收,增长了 56%,但仍然略低于分析师预期的 413 亿美元。

英伟达预测,第三财季营收为 540 亿美元,略高于华尔街分析师的一致预期。但是,在连续多个业绩大增的季度之后,这一营收增速被认为不过如此,并引发了人们对于 AI 芯片需求增长可能已趋于瓶颈期的担忧。

当时在财报发布后,英伟达股价三连跌。

但是,我认为,分析英伟达财报最重要的是看 " 供需平衡 "。

一年半前,我就指出过这一点,现在仍然如此:只要市场上对英伟达 GPU 的需求超过供应,英伟达的销售额就取决于他们能生产出多少 GPU。供应当然在增加,这也正是英伟达销售额能持续攀升的原因,但是,假设供应只是线性增长,那么到头来,随着基数变得越来越大,因为英伟达此前的营收本身已实现指数级增长,英伟达的增长率这个数字就势必会变小了。

从一个有趣的角度来看待英伟达和中国,以及黄仁勋极力想向该国出售产品的原因,就是英伟达 " 护城河 moat" 的本质。黄仁勋在回答一个关于 ASIC 的提问时说道:

" 我们先谈谈 ASIC,很多项目都起步了,许多初创公司涌现,但真正能打造产品的少之又少。原因很简单,这事儿太难了。加速计算 accelerated computing,不同于通用计算 general-purpose computing,你不能只是写个软件,然后编译成可在处理器上运行的代码。加速计算,涉及全栈的协同设计 full-stack co-design。而过去几年里,AI 工厂变得愈发复杂,因为问题规模激增。这真的是当今世界上最终极、最极端的计算机科学问题,所以全栈都很复杂。模型在飞速演进,从基于自回归的生成模型,到基于扩散的生成模型,再到混合模型和多模态模型。涌现出的不同模型,实在太多,要么是 Transformer 的衍生模型,要么是 Transformer 的衍化模型,数量之庞大令人望而生畏。"

" 而英伟达的一个优势,就是英伟达无处不在。所有云,都有我们的存在,每家计算机公司,都在用我们。从云端、到本地、再到边缘乃至机器人领域,我们都采用同一个编程模型。因此全球每种框架都支持英伟达。当你构建新的模型架构时,在英伟达上发布是最明智的选择。我们的平台具有多样性,既能适应任何架构演进,又遍布各处,并且我们加速了整个流程,从数据处理、预训练、到带有强化学习的后训练,一直到推理。所以,当你用英伟达平台构建数据中心时,其效用是最好的,设备寿命也长得多。"

上述回答,其实已经体现了护城河的两个层面。

第一,就是 CUDA 本身,英伟达控制了 GPU 的软件栈,这是默认选项,然后是 CUDA 的普及度,由于 CUDA 无处不在,这意味着你可以前往任何云厂商,也可以找到熟悉 CUDA 的开发者。

黄仁勋还说:" 再补充一点,除了刚才说的这些,这本质上已经成了一个极其复杂的系统级问题。大家总是谈论芯片本身,许多人谈论的 ASIC 就只有一个,也就是 GPU。但为了打造 Blackwell 平台和 Rubin 平台,我们还得打造 CPU 来连接高速内存,为 Agentic AI 提供所需的大容量、超高能效缓存,以此连接到 GPU,再连接到超级 NIC,再连接到纵向扩展交换机,也即 NVLink,如今已发展到第五代,然后再连接到横向扩展交换机,无论是 Quantum 还是 Spectrum-X 以太网,再进一步横跨交换机扩展,以便我们为那些拥有数吉瓦计算能力、互联网的 AI 超级工厂做好准备。我们称之为 Spectrum~XGS。所以,我们所做的一切复杂得难以置信,而且,现在这一切都是在极其庞大的规模下完成的。"

这就是护城河的第二部分:网络 networking。

我一直在讨论英伟达的 GPU,但实际上,GPU 是在系统层面协同工作的,尤其在训练方面。

而英伟达将多颗 GPU,联结为单一协调系统的能力,无人能及。这也成了一个重大的收入驱动力:本季度,2025 年 Q2,英伟达的网络业务收入达到 73 亿美元,已经超过了其 2019 年收购 Mellanox 时支付的价钱,而 Mellanox 正是其网络产品的基础。

这笔收购,堪称史上最成功的收购之一。

" 最后再说一点:我们之所以能进入所有云平台是有原因的,我们是最节能的,我们的每瓦性能 performance per watt,是任何计算平台中最好的。而在电力受限的数据中心,每瓦性能,直接驱动营收。各位也听我说过,在很多情况下,你买得越多,增长越快 the more you buy, the more you grow。再加上我们的每美元性能 performance per dollar,也就是性价比实在惊人,因此我们的利润率也极高。所以,采用英伟达 架构所带来的增长机会和毛利空间绝对是最优的。所以每家云服务商、每家初创公司、每家计算机公司都选择英伟达 ,我们真正提供的是 AI 工厂的一体化全栈解决方案。"

上述最后一点,也即第三点,我认为或许是英伟达在西方世界(注意是在西方)长期护城河中最关键的组成部分。

如果,AI 公司最终受到功耗限制,那么他们就必须最大化每瓦性能,只要英伟达还在这一指标上保持领先,他们高昂的价格,就物有所值。(关于 AI 大模型的性能虽然越来越强,但消耗的 tokens 却越来越多,可见这篇:Token 的成本下降 10 倍,但大模型公司却离盈利越来越远 AI 公司们如今陷入了一种囚徒困境:他们都必须提高模型性能,以领先竞争对手,但他们提高性能的方式,实际上摧毁了自身的盈利能力,与此同时,英伟达则扮演着那个收税人的角色:AI 公司亏得越多,英伟达赚得就越多。)

然而,在中国,功耗很可能不会是限制因素,因此,英伟达的护城河将更多地依赖 CUDA,而这一切的前提,是中国公司的大模型,的确使用英伟达的芯片来进行训练和推理。

让中国公司使用英伟达的芯片,其实确保了美国对主流 AI 软件栈的主导地位。但是反过来,如果中国公司不用英伟达芯片,其实不仅削弱了美国的控制力,而且对英伟达而言,将长期威胁其在世界各地的销售。

原因事关整体竞争格局,一旦由中国推出了开源 CUDA 的替代方案,且形成规模,不仅中国市场,全球市场上的英伟达芯片,都将面临竞争。

黄仁勋其实一直以来都在担忧,中国肯定是未来 AI 芯片最重要的市场之一,然而,即便不受到限制,可以自由销售,英伟达在该市场也没有可持续存在的差异化优势。

关于不久前,英伟达投资英特尔 50 亿的案子,Ben Thomson 认为这笔交易的最大输家,并非台积电,而是 AMD:

" 一直以来,AMD 区别于 Intel 之处,在于它不仅在 x86 CPU 领域展开竞争,还在 GPU 领域有所布局,这得益于其 2006 年收购了当时英伟达最大的竞争对手:ATI。但不幸的是,AMD 的软件实力向来不足,它既没有建立起像英伟达那样的 AI 软件栈,也不具备英伟达的网络能力。这意味着,同时拥有 CPU 和 GPU 业务,并未给 AMD 带来原本可能拥有的优势。如今,对于那些想要英伟达 GPU 又需要 x86 CPU 的公司来说,Intel 将成为显而易见的首选,而且这些 Intel CPU 还将拥有 AMD 所没有的另一项专有技术:比如 Thunderbolt。不过,需要指出的是,这种损失对 AMD 而言,更多只是错失良机。AMD 在只看重性能和总体拥有成本(Total Cost of Ownership)的领域,依然表现强劲,而且这一势头应会持续下去。实际上,你也可以说这笔交易在相当程度上延长了 x86 架构的生命力,而这归根结底对 AMD 也是有利的。"

附:Sam Altman 最新 Blog《丰裕的智能 Abundant Intelligence》

AI 服务的使用增长,令人惊叹,但我们预期未来会更加令人惊叹。

随着 AI 变得更聪明,获取 AI 将成为经济体发展的基本驱动力,甚至最终会成为一项基本人权,几乎所有人都会希望有更多的 AI 为自己工作。

为了能够提供世界所需,既提供运行这些模型的推理算力,也提供让它们持续变得更好的训练算力,我们正在发力铺设基建,以便显著扩大我们建设 AI 的雄心。

如果,AI 按照我们认为的轨迹进步,那么许多惊人的事情将成为可能。

也许,在 10 吉瓦的算力下,AI 能够找到治愈癌症的方法;也许,在 10 吉瓦的算力下,AI 能够为地球上的每一位学生提供个性化辅导。

如果,受到算力限制,我们就不得不在两者之间取舍 ...... 没有人愿意做这种选择,所以让我们尽快开始吧。

我们的愿景很简单,我们想打造一座工厂,每周都能产出 1 吉瓦的 AI 基础设施。

要把这件事执行出来,极其困难。达到这一里程碑,需要我们用上数年时间,并且要求在整个技术栈的每一层——从芯片、供电、建筑、机器人——都进行创新。

但我们一直在为此努力,并且相信这是可行的。在我们看来,这将是有史以来最酷、也最重要的基础设施项目。

我们对在美国大规模建设这些设施,格外兴奋。眼下,其他国家在建设芯片晶圆厂以及新的能源产能方面的速度,远快于我们,而我们希望扭转这一趋势。

在接下来的几个月里,我们将谈一谈部分规划,以及我们正在与之合作、把这一愿景变为现实的伙伴。今年晚些时候,我们会介绍我们的融资方式,鉴于如何提升算力是提升收入的关键所在 how increasing compute isthe literal key to increasing revenue,我们有一些有趣的新想法。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

英伟达 甲骨文 数据中心 阿里云 融资
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论