三易生活 07-01
OpenAI甩开英伟达,谷歌TPU“横刀夺爱”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

本月初,英伟达超越微软重夺全球市值第一的宝座,算是从 DeepSeek 带来的冲击中缓过了劲。但按下葫芦浮起瓢,作为 AI 行业的 " 带头大哥 ",OpenAI 最近站出来给英伟达添堵了。根据海外媒体 The Information 的相关报道显示,OpenAI 准备将谷歌的 TPU 芯片纳入采购清单,以为 ChatGPT 及其他 AI 产品提供算力支持。

在此之前,OpenAI 的大模型预训练和推理都依赖英伟达 GPU,也使得其成为了后者最大的算力芯片采购方。此次转向谷歌的 TPU 芯片,就意味着 OpenAI 方面正在尝试摆脱对英伟达的依赖,从而实现算力芯片供应的多元化。同时继苹果之后,谷歌的 TPU 又一次赢得 AI 大厂的订单,也让它彻底摆脱了 " 自家玩具 " 的定位。

OpenAI 选择用谷歌 TPU 取代部分英伟达 GPU 的原因其实很简单,因为后者的价格太高、太抢手了。据悉,英伟达的旗舰芯片 B200 拥有高达 2080 亿的晶体管数量和 192GB 的 HBM3E 内存容量,提供 8TB/s 的内存带宽,采用的是 Blackwell 架构,AI 性能在 FP8 及新的 FP6 上都可以达到 20PFLOPS,是前代 Hopper 构架 H100 运算性能 8PFLOPS 的 2.5 倍。

可是配备 8 颗 B200 的英伟达 DGX B200 AI 服务器,售价就高达 50 万美元,并且根据摩根士丹利的相关报告显示,英伟达 Blackwell GPU 未来 12 个月的产能已经被预定一空。

作为对比,谷歌的 TPU 芯片价格则更加低廉。以苹果打造 Apple Foundation Model 模型时采购的谷歌 TPUv5p 为例,尽管双方并未披露这笔订单的具体信息,但业界普遍认为 TPUv5p 的单价或在数千美元级别。

其实 OpenAI 与谷歌 AI 模型的 API 定价,也可以从侧面证明 TPUv5p 的低成本特质。OpenAI 旗舰模型 GPT-o3 提供的输入价格是 10 美元 / 百万 tokens、输出价格是 40 美元 / 百万 tokens,而谷歌旗舰模型 Gemini 2.5 Pro 的输入价格和输出价格分别是 1 美元 / 百万 tokens 和 4 美元 / 百万 tokens。

超高的性价比使得 Gemini 2.5 Pro 在问世之后很快就受到 AI 业界的青睐,毫无疑问 TPU 芯片居功至伟。在 AI 领域,TPU(专用向量处理器)凭借高度特化实现了比 GPU(图形处理器)更便宜,同时它也是谷歌专为加速机器学习中的张量(矩阵)运算所设计的定制硬件,其采用脉动阵列(Systolic Array) 设计,通过流水线式数据流高效处理矩阵乘法,减少了数据移动和内存访问延迟。

事实上,TPU 是一个专门针对自然语言处理、图像识别等典型 AI 任务进行优化的芯片,与通用的 GPU 截然相反。英伟达的 GPU 最初是为图形渲染服务,而实现高性能图形渲染的一个重要方法就是并行计算。比如在渲染 1920 × 1080 分辨率的画面时,GPU 会将 400 万个像素分配给 4000 个核心同步处理,每个核心只需要完成 " 这个像素该显示什么颜色 " 的简单指令即可。

这也是为什么 CPU 通常只有十几个核心,可 GPU 的核心规模就会达到成千上万的原因。到了 AI 时代,由于 AI 场景往往需要处理大规模数据和复杂的计算任务,通常会呈现出高度并行化的状态,所以天然更契合采用并行计算的 GPU。再搭配英伟达耕耘十余年的并行计算框架 CUDA,直接就让他们的 GPU 丝滑切入了 AI 计算领域。

简而言之,类似 " 瑞士军刀 " 的 GPU 可谓是功能强大,既能用于渲染图形,又可以用来进行 AI 训练和推理,而 TPU 的用途则非常单一,只能用于 AI 计算。

对于 OpenAI 而言,图形渲染能力对他们显然毫无意义,并行计算能力才是所需的资源。从某种意义上来说,过去数年时间里,OpenAI 采购英伟达 GPU 时其实一直是在 " 买椟还珠 "。

那么问题就来了,早在 2018 年,谷歌的 TPU 芯片就开启了外销商用的步伐,为什么 OpenAI 直到 2025 年才将其纳入采购清单呢?其实这就要归功于 DeepSeek 了。其通过稀疏化训练、动态网络架构、混合专家系统(MoE)等工程层面的创新,让大模型实现了低廉的训练和部署成本。

不仅如此,作为开源模型,DeepSeek 的成功还让相当一批 AI 厂商放弃大模型赛道,并转向智能体、AI 应用。以至于进入 2025 年以来,曾被各大 AI 厂商挂在嘴边的 " 预训练 " 正逐渐被 " 推理 " 取代,推理需求的增长曲线更是变得异常陡峭。

简而言之,如今业界对于推理算力的需求其实要比训练算力更大,除了大厂之外,AI 创业者也已经放弃打造更强 AI 模型的想法,转而开始利用现有 AI 模型的能力来提供 AI 视频、AI 生图、AI 代码等服务。恰好谷歌的 TPUv5p 在推理任务中支持混合精度,可以很好地平衡精度与速度,更适用于提供推理算力。

所以虽然在 CUDA 生态的加持下,英伟达 GPU 在 AI 训练上无人能敌,可偏偏 DeepSeek 戳破了训练算力需求这个泡沫,就给了 OpenAI 实现算力供应多元化的机会。其实这对于国内 AI 厂商来说也是一个好消息,毕竟英伟达在 CUDA 生态上的积累不是一朝一夕就能弯道超车的,但用 TPU 代替 GPU 现阶段更有可行性。

【本文图片来自网络】

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

谷歌 英伟达 芯片 gpu the
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论