英伟达的芯片主导地位正被侵蚀,OpenAI 租用谷歌 TPU,为首次大规模使用 " 非英伟达 " 芯片。
周六,据媒体报道,作为全球最大的人工智能芯片客户之一,OpenAI 近期开始租用谷歌的 TPU 芯片为 ChatGPT 等产品提供算力支持,这是该公司首次大规模使用非英伟达芯片。
据知情人士透露,此次合作安排使得 OpenAI 缓解对微软数据中心的依赖,同时为谷歌的 TPU 提供了挑战英伟达 GPU 市场主导地位的机会。OpenAI 希望通过谷歌云租用的 TPU 芯片降低推理计算成本。
随着 ChatGPT 付费订阅用户从年初的 1500 万增长至超过 2500 万,加上每周数亿免费用户的使用,OpenAI 的算力需求正在快速攀升。
值得一提的是,越来越多公司正在开发推理芯片以减少对英伟达的依赖并长期降低成本。亚马逊和微软,以及 OpenAI 和 Meta 等大型 AI 推理芯片都已启动自主研发推理芯片的计划,见闻此前文章提及,微软造芯计划受挫,Maia 100 目前仅用于内部测试,Braga 的 AI 芯片面临至少六个月的延迟,且预计其性能将远低于英伟达 Blackwell 芯片。
OpenAI 需求激增推动转向谷歌芯片
OpenAI 主要通过微软和甲骨文租用英伟达服务器芯片来开发训练模型并为 ChatGPT 提供算力。 据了解,该公司去年在此类服务器上的支出超过 40 亿美元,其中训练和推理成本各占一半,预计 2025 年在 AI 芯片服务器上的支出将接近 140 亿美元。
谷歌 TPU 转向的直接推动因素是今年早些时候 ChatGPT 图像生成工具的爆红,这给 OpenAI 在微软的推理服务器带来了巨大的压力。为了应对不断增长的计算需求和成本压力,OpenAI 首先寻求了谷歌云的支持。
据谷歌云员工透露,谷歌虽然向该竞争对手开放其强大的 TPU 芯片,但还是会将更强大的 TPU 保留给自己的 AI 团队开发,然后供 Gemini 模型使用。
谷歌大约 10 年前就开始研发 TPU 芯片,并从 2017 年开始向意识训练自有 AI 模型的云客户提供这一服务。除了 OpenAI 外、苹果、Safe Superintelligence 和 Cohere 等公司也一直租用谷歌云的 TPU,部分原因是这些公司的一些员工在谷歌工作,熟悉 TPU 的运作方式。
据知情人士透露,同样是全球最大 AI 芯片客户之一的 Meta 近期也考虑使用 TPU。
此外,谷歌云还向其客户出租英伟达支持的服务器,因为英伟达芯片是行业标准,这样做带来的收益仍然比出租 TPU 多得多。开发者对控制这些芯片的专用软件更加熟悉。谷歌此前已向英伟达订购了超过 100 亿美元的最新 Blackwell 服务器芯片,并于今年 2 月开始向部分客户提供。
登录后才可以发布评论哦
打开小程序可以发布评论哦