日前美国政府宣布,将允许英伟达向中国和其他地区的 " 获准客户 " 销售其 H200 人工智能芯片,条件是美国政府将获得英伟达在这些地区 H200 销售额的 25% 的分成。GPU 计算再度受到关注。
就在前几天,黄仁勋在一场公开活动上的发言又引起了不小的关注,他表示自己不确定 CPU 在未来以加速计算和人工智能为主导的智能时代中,是否还有存在的必要性。这句话的言外之意,其实就是 CPU 或许将在未来被 GPU 彻底取代,也是黄仁勋一直以来坚持的 " 加速计算 " 理念所指向的未来。
在过去的几年里,随着 AI 大模型的兴起,无论是大模型训练、AI 推理,还是自动驾驶与云计算基础设施,这些场景的计算架构都以 GPU 为核心进行设计,原本的核心 CPU 地位被显著弱化。
英伟达可以说是在这个浪潮中受益最多的公司,其 GPU 在数据中心端的收入从 2023 年的 150 亿美元,暴涨到 1152 亿美元(2025 财年),而在明年 1 月份公布的 2026 财年财报里,我们或许还将看到这个数字再一次飙升。

图源:英伟达
另一方面,国内领先的通用 GPU 公司摩尔线程,在上市首日股价就从 114.28 元涨到约 650 元,这一表现也彻底点燃了中国市场的 GPU 热潮。老实说,小雷此前在关注摩尔线程时,想过他们日后肯定会火,却依然低估了资本对于 GPU 企业的热情。在成功上市后,摩尔线程趁热打铁,在 12 月 9 日宣布将于首届 MUSA 开发者大会上发布以 MUSA 为核心的全栈发展战略与未来愿景,并重磅发布新一代 GPU 架构。
问题来了:在大模型训练需求爆发的当下,GPU 的角色确实正在变得前所未有地重要,但是 CPU 真的会被 GPU 取代吗?以下是雷科技的思考。
在传统概念里,CPU 一直都是通用计算的核心,因为 CPU 的单线程性能更强、指令体系成熟且生态完善,可以执行操作系统和应用程序的复杂任务。正是这些特性,使得 CPU 几乎成为一切智能设备的大脑,事实上,无论是 PC 还是手机,亦或是大型服务器,不管拥有多少算力,最终也都还是需要 CPU 进行调度。
而 GPU 的优势则是极端的并行计算,GPU 阵列可以轻松让几千甚至上万个核心同时运行,使其在深度学习训练、图像渲染、科学计算这类 " 重复且矩阵化 " 的任务中不管是效率还是速度都完全碾压 CPU。
不过,正是这种对并行计算的极致强化所带来的设计,使得 GPU 在处理复杂的任务时反而力不从心,无法凭借强大的单核能力对任务进行快速的逻辑判断和拆解执行。可以这么说,GPU 就像是车间里的熟练工人,单个线程能力有限,只能按计划批量处理重复的工作,而 CPU 则是管理人员,可以根据生产计划安排任务和管理车间事务。
所以,不管是在 PC 还是在服务器中,CPU 依然是不可或缺的硬件,运行数据库、进行系统调度,这些仍是 CPU 的主场,而模型训练、并行推理、批量向量计算则完全属于 GPU 的强项。
图源:英特尔
在小雷看来,二者并不是零和关系,不是说用了 GPU 就不能用 CPU,两者本质上是协同关系,不过随着大模型成为数据中心的主要任务,GPU 的权重确实快速提升。所以黄仁勋所说的 " 取代 ",其实更多是一种比喻,是指 GPU 在新计算时代逐步成为核心驱动力,而非字面意义的替代。
那么问题来了,GPU 有可能完全取代 CPU 吗?只能说理论上是有可能的,但是想要达成这个目标,必须设计出专精于通用任务处理的核心架构,并且加大核心缓存并设计更复杂的控制单元。同时还要对现有的指令集和系统架构进行全面更新,使其适应以 GPU 为主的计算环境。
简单来说,相当于将现有的计算体系完全推翻重构,先不说英特尔与 AMD 是否愿意配合,即使英伟达真的以一己之力推动计划,所面临的阻力也并不只是来自他的对手,全球互联网数十年的积累就足以让整个计划难以推进。
咳咳,扯远了,不过话又说回来,GPU 在云计算行业成为主导确实已经是事实了。从 AIGC 到企业级大模型训练需求,为了满足这些暴增的并行计算需求,云端基础设施正在发生根本性的改变,GPU 集群已成为各大云厂商的首选(当然也可以看做是在 " 补课 ",毕竟以前的计算集群大多以 CPU 为主)。
可以看到,国内外的主要互联网及科技企业,都在加速部署新的 GPU 集群,以阿里云为例,不仅自研了含光芯片,同时也在加速引入由英伟达等第三方 GPU 核心组成的新一代 GPU 集群,为大模型提供算力底座。
此外,百度昆仑团队开发的自研芯片,也针对 AI 算力场景进行深度优化,与飞桨生态结合形成一体化方案。借助成体系的 AI 软硬件方案,百度可以帮助企业快速完成本地 AI 大模型的部署和应用,对于需要更高安全性和可靠性的企业(如化工生产等)来说是比云服务器更优的选择。日前百度已放出消息称,拟拆分昆仑芯片独立上市,看样子是想分享这一波 GPU 驱动的 AI 计算的红利。
图源:昆仑
而亚马逊则是以 Graviton、Trainium、Inferentia 等不同系列的芯片构筑了一个用 ARM CPU、GPU 和 NPU 搭建的全自研 AI 算力集群,通过异构计算,适配从推理到训练的不同需求。
至于另一家巨头谷歌,自研的 Tensor Processing Unit 更是以出色的能效比和算力而著称,同时也推出了面向通用计算的 Axion CPU。目前,谷歌的云计算中心除了采购英伟达的 GPU 用于训练集群外,推理集群已经逐渐转向自研芯片为主的服务器。
不难发现,几乎所有头部厂商在采购第三方 GPU 的同时,都在推动自研芯片计划,其根本目的并不是为了摆脱英伟达,而是为了避免算力供应完全受制于人。尤其在大模型推理成为未来主流应用的背景下,能效比与成本控制对云厂商来说比峰值算力更重要,而自研芯片恰好能在这些长期投入上形成不可替代的优势。
所以,即使日后计算集群的重心彻底转向 GPU,英伟达也很难做到独占整个市场,毕竟大家也都有着自己的小心思。
云端算力的重构只是一部分,终端侧也在同步发生变化,而且这部分变化更具代表性,因为它直接揭示了未来十年的计算架构走向,我们可以看到从 PC 到手机再到汽车,越来越多的 AI 任务开始在本地执行,而不是全部依赖云端。
大模型推理、智能助手、AI 建议、实时生成图片 / 文字应用,都需要终端设备具备足够的高并行算力,这种趋势必然削弱传统 CPU 架构的重要性。以手机为例,目前几乎所有旗舰 SoC 都在强化 AI 算力,特别是集成 GPU 与 NPU 的加速能力,高通、联发科的旗舰移动平台都能实现几十 TOPS 甚至上百 TOPS 的 AI 算力,苹果 M 系列也持续提升 GPU 的可编程能力。
越来越多的系统级 AI 功能,如离线语音识别、实时图像增强、原生 AI 助手,其底层都已从 CPU 迁移到 GPU 或 NPU 执行,这也是为什么 "AI 手机 " 会成为新一代旗舰机的核心卖点。因为以前的手机并没有如此强大的 GPU 和 NPU,所以在 AI 算力方面是远无法与新旗舰相比的,也无法提供后者所具备的 AI 功能。
在 PC 行业也是一样,自从 AI PC 提出后,整机最关键的指标不再是 CPU 主频,而是 " 端侧 AI 算力 ",这其中 GPU 承担了大部分重任。无论是英特尔的 Arc 集显体系,还是 AMD 的 RDNA 架构,亦或是高通的 Adreno GPU,它们都在承担起越来越多高密度矩阵计算任务。
图源:高通
虽然很多 AI PC 芯片都在强调自己的 NPU 非常强大,有更高的能效,但是也无法完全取代 GPU 在图形渲染、模型并行计算上的能力,因此 GPU 在 PC 领域的重要性反而比过去更高,最近一年以来各大厂商投入到核显上的研发经费估计都增加了许多。
不过,最典型的例子其实还是自动驾驶,无论是感知模型、传感器融合还是路径规划,都需要瞬时处理数以百亿计的数据,这类任务天然依赖 GPU 的高并行优势。地平线的征程系列、特斯拉 FSD 芯片、英伟达 Orin 和下一代 Thor 平台,全部采用围绕 GPU 构建的异构架构,特别是在 L3 甚至 L4 等级自动驾驶中,实时性要求极高,GPU 几乎不可替代。
你会发现,以前很多不需要配备 GPU 的设备,现在都用上了 GPU,为的就是解决 AI 推理时所需要的算力问题。所以,属于 GPU 的时代确实来了,它将统治的领域也不只是服务器,在终端侧也将掀起一阵新的战火,整个行业正在迎接一次少见的重塑。
小雷并不觉得英特尔与 AMD 会坐以待毙,先不说 CPU 还远没到退场的时候,整个 AI 生态的参与者也都不想看到英伟达 " 一家独大 "。
英伟达的优势在于生态,而不是硬件本身。CUDA 经过十几年的沉淀,已成为事实标准,让其他硬件厂商难以撼动,如果没有足够的生态迁移能力,即使芯片性能相当,也很难得到开发者的支持。
因此,想挑战英伟达首先就需要建立自己的 AI 生态,AMD 的选择是力推 ROCm,不仅比 CUDA 更开放,而且更新更频繁,目前已经在 MI300 系列上获得了不少厂商的认可。
而英特尔则是选择两步走,一方面依靠 Gaudi 加速器冲击训练与推理市场,另一方面在 CPU 领域打造更强大的 AI 处理器,借助自己的 PC 生态领导地位直接在终端侧进行布局。
可以说,整个半导体行业都在发生剧烈的变化,以 GPU 为主的新格局正在形成,虽然英伟达仍将是 GPU 领域的王者,但 CPU 厂商不会退场,它们会通过异构算力、软件生态整合以及在本地部署场景中的优势继续稳固自己的角色。
在小雷看来,计算领域的真正竞争并不是说谁消灭谁,而是看谁能在算力结构、软件生态和系统架构等方面掌握更高的话语权。而在这一点上,华为其实有着不小的优势,从昇腾系列芯片到昇思 MindSpore 和 CANN,再配合鸿蒙系统生态,华为已经集齐了从底层硬件、AI 框架到操作系统的完整链条。
在全球进入 "AI 原生时代 " 的背景下,谁能构建起完整的 AI 生态,谁就能在下一轮计算浪潮中占据主动。





登录后才可以发布评论哦
打开小程序可以发布评论哦