第一新声 7小时前
谷歌 Ironwood TPU 突袭,英伟达 GPU 迎来挑战者?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

11 月 26 日凌晨 1 点,英伟达罕见发布紧急声明,回应近期市场对 AI 硬件发展路线的热议。业界普遍认为,此举与谷歌第七代 Ironwood TPU 正式上市,以及 Meta 考虑采用 TPU 方案等行业动态密切相关。

受此影响,英伟达股价昨日出现波动,盘中最高跌幅达 7%,最终收盘下跌 2.59%。目前,这条声明浏览量破 150 万,评论超 750 个,成为 AI 圈爆火内容。

市场对此反应不一。有观点认为,投资者正在重新评估 AI 芯片市场的未来格局。有行业观察者指出:" 当你的大客户开始自研芯片时,市场竞争的逻辑就发生了变化。" 不过,也有分析强调,英伟达的核心优势在于其建立的完整生态体系。

值得一提的是,尽管谷歌成功开发了 TPU 系列芯片,但其仍在采购英伟达 GPU。这凸显出当前 AI 芯片市场的复杂态势。专用芯片虽能在特定场景展现优异性能,但通用平台在实际工作负载适配、灵活扩展性和生态系统方面仍具优势。

01 谷歌用 Ironwood+Axion 重构 AI 基建

如果说过去十年,AI 基础设施基本等同于 "GPU+ 云 + 自行管理架构 " 的组合,那么现在 Google 正试图用一套集 " 定制硬件、云服务、托管支持、专用芯片、高速网络、生态协同与弹性扩展 " 于一体的方案,重新定义 AI 基础设施的核心形态。

其中,Ironwood 作为 Google 的第七代 TPU,是其迄今为止性能最强、能效最高的加速器,专门针对大规模模型训练、推理、模型服务及智能体(Agent)工作流设计。

根据 Google 博客介绍,相较于前代 TPUv5p,峰值性能提升约 10 倍;与最近一代 v6e 相比,单芯片在训练和推理任务上的性能也超过 4 倍。同时,Ironwood 还配备了超大带宽、大容量内存、高速互联、液冷系统及系统级优化,能够高效适配复杂、高并发、低延迟的大模型部署与服务场景。

与之搭配的,是 Google 推出的基于 ARM 架构的 AxionVM,包含 N4A、C4Ametal 等型号。这套方案可覆盖通用计算、机器学习加速、推理任务及日常后台运算,形成了 " 定制芯片 + 通用 CPU+ 云服务 + 网络支持 + 托管服务 " 的完整闭环,对外提供 "AI 超级计算机即服务 " 的全新模式。

换句话说,Google 并非单纯售卖一块芯片,而是在打造一个可租用、可弹性扩展、能容纳大规模模型运行、支持高并发服务与全球用户访问的全方位 AI 基础设施体系。

这一组合对行业而言堪称重大转折:

一方面,Ironwood 实现了性能与能效的双重突破,10 倍性能提升搭配高效能耗与大规模扩展能力,对大模型训练、推理及服务场景极为友好。

另一方面,它大幅降低了 AI 落地的门槛、运维复杂度与成本。客户无需自行购置 GPU 集群,也省去了管理冷却、网络、负载均衡等复杂基础设施的精力,直接租用 "AI 超级计算机 + 托管服务 " 即可启动项目。

更关键的是,Google 构建了 " 生态 + 芯片 + 云 + 服务 " 的一体化模式,将模型开发、推理运算、部署上线、服务运维与托管支持的全流程进行整合,无论对大企业、大规模服务提供商还是初创公司都极具吸引力。

此外,这套方案专门针对大规模推理、模型服务、智能代理、多模态应用、多用户并发访问等场景优化,而这些正是传统 GPU 时代要么不擅长、要么成本过高、效率不佳的领域。

所以,Ironwood+Axion 绝非简单的另一个 GPU 替代选项,而是 AI 基础设施的 "2.0 版本 " 大升级。

它代表了 AI+ 云 + 服务化基础设施 + 硬件垂直整合 + 托管支持 + 弹性扩展 + 低门槛使用的新思路,对于那些希望快速推出 AI 服务、节省资本开支、降低运维压力,同时追求高并发、低延迟与大规模用户访问能力的企业和组织来说,无疑是极具吸引力的选择。

02 英伟达的时代过去了吗

谷歌 Ironwood 的强势登场,无疑向英伟达的 GPU 帝国发出了一个明确的挑战信号。这是否意味着英伟达时代将迎来终结?

针对市场变化,英伟达在声明中强调了其独特价值:" 英伟达是唯一能够运行所有 AI 模型的平台,在任何地方都能做到。"

这一表态凸显了英伟达的核心战略,通过 "GPU+CUDA+ 生态 " 构建的通用计算平台,保持其在 AI 基础设施中的基础地位。

具体而言,英伟达的优势体现在三个层面:

第一,通用性与兼容性。英伟达 GPU 的核心优势,从来不是单块芯片的性能,而是由 " 硬件 + 软件 + 生态 " 织就的庞大网络。CUDA 就像 GPU 的操作系统。当年英伟达推出这个平台后,降低了开发者使用 GPU 并行计算的门槛,使其无需深入钻研硬件底层。

现在几乎所有主流 AI 框架,比如 PyTorch、TensorFlow,都直接适配 CUDA,开发者写的代码能无缝在英伟达 GPU 上运行,不用反复修改。

第二,广泛适配,已形成成熟生态。从科研机构用的小模型,到 OpenAI 训练的 GPT-5 等超大模型;从医疗影像分析、自动驾驶,到短视频推荐、语音助手,几乎所有 AI 相关的场景,都有现成的 CUDA 优化工具和案例。

就像万能插座能适配各种插头,英伟达 GPU+CUDA 组合,能让绝大多数 AI 模型近乎即插即用。不管是学术研究的实验模型,还是企业落地的商用模型,不用特意改造就能高效运行,这是其他硬件平台很难比的,也是它的看家本领之一。

第三,通用性带来的灵活性与长期成本优势。与专用芯片(ASIC)为特定任务量身定做不同,英伟达 GPU 的通用架构使其能从容应对 AI 技术的快速迭代。

ASIC 就像为特定任务量身定做的 " 定制工具 "。比如谷歌的 TPU,就是专门优化深度学习中的矩阵运算,在自家生态的模型训练和推理中,能效比确实很高,成本也更低。

但它的问题在于 " 专 " 得太绝对。首先,这会导致场景受限。TPU 主要适配 TensorFlow 框架和谷歌的模型,要是换个小众框架或自定义模型,可能根本跑不起来,就像专门跑马拉松的跑鞋,用来爬山只会更难用。

其次,缺乏灵活性。ASIC 的电路是固定的,一旦完成生产,就只能优化特定算法。如果 AI 技术迭代出新技术,比如从传统深度学习到多模态模型,旧的 ASIC 芯片可能直接被淘汰,企业得重新采购,硬件成本很高。

更关键的是,ASIC 很难覆盖复杂场景。比如一家公司既做图像识别,又做自然语言处理,还做推荐系统,用 ASIC 可能要为每个场景买专门的芯片,管理和维护成本会飙升;而英伟达 GPU 能同时搞定这三类任务,不用额外适配。

这也是英伟达对 ASIC 保持警惕的核心原因。ASIC 只能解决 " 单一问题 ",但 AI 行业的需求一直在变,模型和场景越来越多元,万能工具永远比专用工具更有普适性。

03 未来 AI 芯片赛道大洗牌

尽管英伟达生态优势显著,但市场格局正在松动。

最直接的体现是,Meta 正与谷歌洽谈采购 TPU 事宜,计划从 2027 年开始在其数据中心部署谷歌芯片。这一动向反映了大型科技公司对 AI 基础设施的战略考量,在追求性能与能效的同时,通过多供应商策略降低供应链风险。

假设未来 2 – 5 年,谷歌凭借自研 TPU、云服务与一体化基础设施的组合持续发力,Meta 等科技巨头纷纷转向 TPU 采购与托管服务,更多企业跟进采用多样化基础设施与混合部署模式,整个 AI 产业将迎来全方位的深度变革,其深远影响将贯穿基础设施形态、硬件市场格局、投资估值逻辑与应用商业化四大维度。

首先,AI 基础设施将完成从 " 自建 GPU 集群 " 到 " 云 + 专用硅 + 混合 " 的根本性转变。

这一变革对不同规模的机构而言都意义重大:对中小公司、创业者和研究机构来说,无需再投入巨额资本购置 GPU、建设专业机房及配套的冷却、电力系统,也不必承担高昂的维护运维成本,只需通过租用标准化服务就能快速启动或灵活扩展 AI 项目。

对大型公司、SaaS 服务商、内容平台而言,这种新模式能让它们更灵活、经济、可扩展地部署大模型、推理任务、多模态应用、智能代理及实时服务。

其次,AI 硬件市场将彻底告别 "GPU 一统天下 " 的格局,迈入 " 混合 / 多极 / 分散 / 服务化 " 的新阶段。

GPU 不再是 AI 硬件的唯一或必要选项。谷歌 TPU 凭借单芯片 4614 TeraFLOPS 的算力密度与显著的成本优势,已成为重要替代选择——其推理场景能效是竞品的 2 倍,训练成本仅为竞品的 20%。与此同时,定制 ASIC、专用加速器搭配云基础设施与托管服务的方案,也将形成有效补充。

整个硬件生态将呈现多样化共存的态势:GPU、TPU、定制 ASIC、ARM 架构虚拟机、云托管及混合部署等不同厂商的方案各展所长。这不仅会打破英伟达的长期垄断,也将为芯片设计、云服务、基础设施提供商及 AI 初创公司带来全新的商业机会与竞争模式。国产厂商如寒武纪等也在聚焦专用芯片路线,加速缩小技术代差。

再者,行业的投资与估值逻辑将被彻底重塑。

硬件竞争的核心不再是 " 卖芯片 ",而是转向 " 卖服务 / 基础设施 / 云 / 托管 / 生态 " 的全栈能力。过去,投资者评判芯片厂商价值的核心指标是 GPU 出货量、AI 热潮带来的短期需求;而未来,估值逻辑将更多向 " 谁能提供最经济、可扩展、服务化、全栈式混合基础设施 " 倾斜。

谷歌凭借从芯片、网络到模型、应用的全链条布局,这套全栈生态能力成为估值提升的关键支撑;Broadcom 等具备专用硅 + 云服务 + 基础设施整合能力的大厂及中间商,也将迎来新的估值机遇。

对于依赖 GPU 的传统厂商而言,这既是严峻挑战,也是转型契机。它们要么转向通用 / 混合路线,要么加快布局专用芯片、云服务及优化堆栈,以适应市场变化。同时,基础设施门槛的降低将激发 AI 初创公司、SaaS 企业及服务型公司的创新热情,让它们更愿意投身技术探索与模式创新。

最后,这一系列变革将直接引爆 AI 应用、产品与服务的全面爆发。

此前,仅大型互联网公司和资金雄厚的机构有能力自建或托管 GPU 集群,开展模型训练、部署与服务;而随着 "AI 超级计算机 + 托管服务 " 模式的普及,无论是启动大模型服务、多模态生成、智能代理,还是搭建智能后台服务、推荐系统、内容生成工具、AI SaaS 平台,都变得门槛更低、灵活性更高。

谷歌新发布的大模型已推动 AI 应用成本暴降 90%,百万 Token 成本从 7 美元降至 1 美元,直接带动了 AI 营销等下游领域的业绩爆发。

这种普及性的提升,将让更多公司、个人和中小机构参与到 AI 创新中来,成为下一波 AI 应用商业化与产业化大爆发的核心驱动力,推动 AI 技术深度渗透到数字政府、大交通、制造等更多行业场景。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

英伟达 谷歌 ai 芯片 google
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论