GPU 再胜一局!2025 年 3 月,Loop Capital 爆出一则重磅消息:Apple 已向 NVIDIA 订购总额约 10 亿美元的 GB300 NVL72 GPU 集群服务器系统,由 Super Micro Computer(SMCI)与 Dell 联合交付。在 AI 领域 " 掉队 " 的苹果,终于正式进入 " 大型服务器集群 Gen AI 游戏 "。无论是科技巨头(如苹果、谷歌、Meta)还是初创公司,都在依赖 NVIDIA 的 GPU 来加速其 AI 战略。AI 领域的垄断巨头正享受着属于他们的高光时刻。
苹果终转向商用 GPU?
苹果长期以来以自研芯片为核心竞争力,其 Apple Silicon 系列通过深度软硬件协同,在移动设备和边缘计算领域取得了巨大成功。此前,苹果软件工程高级副总裁 Craig Federighi 曾公开确认,Apple Intelligence 服务完全运行在自研的 Apple Silicon 服务器上,并称之为 " 行业云端处理新标准 "。
然而,这次转向 NVIDIA 的商用 GPU,在 AI 策略上的转变,也反映了苹果承认了 GPU 生态和 Gen AI 范式的优势,并愿意为此砸下重金。可能是在生成式 AI(Gen AI)领域,自研芯片的开发周期和优化成本难以满足当前市场对高性能计算的迫切需求。据分析师 Ananda Baruah 的报告透露,苹果正计划订购约 250 台英伟达的 NVL72 服务器,每台服务器的成本预计在 370 万至 400 万美元之间,总价近 10 亿美元。
Siri" 失利 " 是导火索,业界对苹果 AI 一直以来都翘首以盼。然而,Siri 近年来在与竞争对手(如 Google Assistant 和 Alexa)的对比中逐渐失去竞争力,原本预计今年春季 iOS 18.4 会更新 Siri,但是,苹果已将 Siri Apple Intelligence 功能推迟到明年,苹果在今年 3 月初罕见地承认了这一点,并委婉地表示:" 我们还在努力打造更加个性化的 Siri,让它更了解你的个人情况,并能够在你的应用内和跨应用为你采取行动。实现这些功能需要比我们预想的更长的时间,我们预计将在明年推出它们。"
生成式 AI 爆火了两三年,OpenAI、Anthropic、Google 等玩家在 Gen AI 赛道上狂奔,GPT-4、Claude、Gemini 已经实现推理、多轮对话、文档操作、编程协助等核心能力。AI PC 也已经逐渐落地了。大模型重新定义了用户对 " 智能助理 " 的期望,用户的心理预期已从 " 命令执行 " 跃迁至 " 智能协同 "。而作为全球最大的手机厂商——苹果显然是有点 " 掉队了 "。这也促使苹果重新评估其 AI 硬件策略,从传统的 AI/ML(机器学习)转向更前沿的 Gen AI 技术。
Apple 此次投下这 10 亿美元大单,它想干什么?有几个推测:一是打造 Apple LLM,嵌入 Siri 新版本,实现设备级混合部署(本地 + 云);二、构建 Apple AI Cloud,支持 iOS/macOS 等设备远程 AI 增强;三、未来将 AI 深度集成到 iWork 套件、Health、Shortcuts 等应用中。
尽管此次采购 NVIDIA GPU,苹果不太可能完全放弃自研芯片。一种可能的路径是:利用 NVIDIA GPU 进行模型训练和开发,而 Apple Silicon 则专注于推理(inference)和边缘设备。这种混合策略能够平衡性能与成本,同时保留苹果在生态系统中的控制力。
GPU 的胜利
尽管苹果在自研 ASIC 领域拥有深厚积累,但最终选择投向 NVIDIA 阵营,透露出两大关键信号:首先,时间优先级成为压倒性因素——苹果显然不愿等待自研 Gen AI 专用 ASIC 的漫长开发周期;其次,GPU 在短期内的性能优势和生态成熟度,盖过了定制化带来的效率红利。特别是 NVIDIA 的 GPU 搭配 CUDA 生态,已成为训练大语言模型(LLM)的事实标准。这种 " 时间与性能 " 的取舍,清晰地驱动了苹果的决策。
生成式 AI(如 LLM)的崛起,对算力架构提出了全新要求:超高的并行吞吐量、海量的内存带宽以及灵活的计算结构。这些需求让通用 GPU 的优势进一步凸显,而非通用架构(如传统 ASIC)在短期内难以匹敌 NVIDIA 在性能与生态上的领先地位。
过去两年,NVIDIA GPU 的价格已飙升至每颗 9 万美元,其财务表现也印证了这一统治力:在截至 1 月 26 日的第四季度,NVIDIA 实现营收 393 亿美元,同比增长 78%。英伟达的毛利率高达 70% 以上,远超竞争对手 AMD 的 50%。这种高毛利不仅反映了市场对其产品的旺盛需求,也凸显了其在 AI 硬件领域的定价权。
理论上,高昂的芯片成本可能推高 AI 服务(如 ChatGPT 或 Microsoft Copilot)的价格,最终转嫁给消费者。然而,目前硅谷科技巨头似乎更愿意自行消化这些成本,以抢占 AI 竞赛的先机。NVIDIA 约 41% 的收入来自微软、谷歌、亚马逊和 Meta 四大客户,这些公司均表示,GPU 供应不足已成为构建 AI 数据中心的瓶颈。
今年 1 月,英伟达的前景遭遇了一次震荡——中国初创公司 DeepSeek 发布了一个具有竞争力的 AI 模型,声称其背后预算极为有限。英伟达的市值在一天之内几乎蒸发了 6000 亿美元。不过,英伟达在接下来的几周内大部分恢复了这些损失。行业的普遍假设是,DeepSeek 模型所暗示的这种更廉价的 AI,将只会增加全球对 AI 服务和其背后硬件的需求。科技巨头们并没有改变自己对 AI 基础设施的建设,反而愈演愈烈:Meta 计划今年斥资 650 亿美元建设 AI 基础设施,包括一个规模堪比 " 曼哈顿大部分地区 " 的数据中心;微软、谷歌等全球九大科技公司预计 2025 年在 AI 上的总支出将达 3710 亿美元,同比增长 44%。
有 AI 专家则认为,DeepSeek 的成就实际上只会巩固英伟达的地位,因为这仍然发生在英伟达的软硬件生态系统中。与此同时,普遍认为 DeepSeek 是借助现有模型(如 OpenAI 的 GPT)进行开发的,而这些模型的构建依赖于巨大的计算资源。
在硬件层面,NVIDIA 最新推出的 GB300 NVL72 平台堪称巅峰之作。这款机架级设计集成了 72 个 Blackwell Ultra GPU 和 36 个基于 Arm Neoverse 的 Grace CPU,形同一个为推理和训练优化的巨型 GPU。与前代 Hopper 架构相比,GB300 NVL72 在响应速度(TPS,每用户每秒事务数)上提升 10 倍,能效吞吐率(每兆瓦 TPS)提升 5 倍,整体 AI 产出能力跃升 50 倍。这种性能飞跃让自研 ASIC 或传统 x86 CPU 在面对大规模并行计算时,几乎无法与之抗衡。
来源:NVIDIA
NVIDIA 创始人黄仁勋曾表示:"Blackwell 的需求令人震惊。AI 推理引入了新的缩放定律——更多训练算力让模型更智能,更多推理算力让答案更精准。" 这一洞察不仅揭示了 AI 算力的双轮驱动逻辑,也预示了 NVIDIA 的增长势头。展望 2026 财年第一季度,公司预计营收将达 430 亿美元,显示其在 AI 硬件市场的统治力仍在延续。
从苹果的妥协,到科技巨头的狂热投入,再到 DeepSeek 的意外挑战,GPU 的胜利不仅是技术路线的胜出,更是对时间与性能极致追求的见证。在 AI 驱动的未来,GPU 的通用算力生态正成为不可撼动的基石。
ASIC 的 " 失败 "
与 GPU 的耀眼成就相比,ASIC(专用集成电路)在生成式 AI(Gen AI)浪潮中的暂时 " 失利 ",为自研芯片路线敲响了警钟——在技术竞争中," 错过时间窗口 " 比性能稍逊更为致命。
在半导体领域,自研 ASIC(如 Apple Silicon)与商用 GPU 之间的技术路线之争由来已久,核心在于 " 定制化 " 与 " 通用性 " 的博弈。从技术特性来看,自研 ASIC 在特定任务(如 AI 推理阶段)上具备更高的效率,但其设计和验证周期漫长,难以跟上人工智能领域日新月异的发展节奏。相比之下,通用 GPU 凭借灵活性和强大的生态支持,在快速迭代的 AI 市场中占据了上风。
ASIC 的开发周期是其最大软肋。以苹果为例,作为全球芯片设计的佼佼者,其从架构设计到流片验证仍需数年时间。然而,Gen AI 的竞争是一场速度至上的赛跑,大语言模型(LLM)等技术的迭代周期以月计,市场需求瞬息万变。苹果显然无法承受自研 AI 专用 ASIC 逐步成熟的等待期。相比之下,NVIDIA 的 GPU 作为成熟的商用解决方案,可立即投入使用,直接满足苹果对算力的迫切需求。这种时间上的差距,成为 ASIC 在短期内失利的关键。
ASIC 的另一大短板在于灵活性不足。作为专为特定任务优化的 " 专用芯片 ",ASIC 在固定场景下(如推理或网络加速)表现出色,但在 Gen AI 的工作负载面前却显得捉襟见肘。LLM 的训练涉及多样化的算法和不断扩展的模型规模,需要硬件具备高度的通用性和适应性。而 ASIC 的设计初衷恰恰与之相悖,其定制化特性难以快速响应 AI 领域的动态需求。反观 NVIDIA GPU,凭借通用架构和 CUDA 生态的加持,不仅能覆盖训练与推理的全流程,还能灵活适应新算法的演进。这种灵活性让 ASIC 在竞争中相形见绌。
博通和 Marvell 作为 ASIC 设计服务的两大厂商,也面临不利局面。
去年底,The Information 报道称,苹果正与博通合作开发代号为 "Baltra" 的 AI 服务器芯片。这款芯片聚焦网络技术,预计 2026 年量产,仅限苹果内部使用,并采用台积电 N3P 工艺(与 OpenAI 和 NVIDIA 的 AI 芯片工艺一致)。尽管博通在传统数据中心市场凭借网络加速器等定制 ASIC 表现强劲,但其产品在 AI 训练领域的竞争力仍无法与 GPU 抗衡。
Marvell 则通过 ThunderX 系列 Arm CPU 和定制芯片布局 AI 市场,但其方案更偏向推理而非训练,难以满足苹果在大规模 LLM 训练上的需求。
苹果此前透露,它也在探索使用亚马逊的 Trainium2 芯片进行 AI 模型预训练。如今选择英伟达 GPU,还是佐证了通用 GPU 尤其是英伟达 GPU 短期地位难以撼动。
当然,这并不意味着 ASIC 彻底退出舞台。苹果未来可能采取 "GPU 训练 +ASIC 推理 " 的混合策略,利用 NVIDIA 完成模型开发,再用 Apple Silicon 优化边缘部署。然而,在当前阶段,ASIC 的 " 失败 " 更多是时间窗口的失利,而非技术的终结。
总结
苹果 10 亿美元豪购 NVIDIA GB300 NVL72 的决定,既是其 AI 战略的急转弯,也是 GPU 在生成式 AI 时代统治力的又一注脚。在这场技术与时间的赛跑中,通用算力以其现成性和适应性,击败了定制化方案的长期潜力,即使如苹果这般自研能力傲视群雄的巨头,也不得不向现实低头。Siri 的失利、Gen AI 的狂飙,以及用户对 " 智能协同 " 的新期待,共同将苹果推向了英伟达的怀抱。然而,这并非 ASIC 的终曲,而是时间窗口与生态博弈的阶段性结果。未来,当苹果的自研芯片与 GPU 的混合策略成熟,AI 算力的王座之争或许会迎来新的转折。但至少在当下,英伟达的 GPU 不仅是技术的胜利,更是时间铁律的化身——在 AI 的狂潮中,谁能更快站上风口,谁就握住了定义未来的钥匙。
登录后才可以发布评论哦
打开小程序可以发布评论哦