艾瑞网 2小时前
OpenAI与DeepSeek,正在把AI竞争引入软硬协同阶段
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

导语:中国与美国的 AI 竞争,正在从算力与模型的单打独斗,收敛到软硬件协同的开源与闭源的竞争。

全球 AI 竞争正在走向模型与算力的协同,在这方面,OpenAI 与 DeepSeek 分别在美国与中国扮演了最重要的角色。

OpenAI 正在打造辐射硬件与软件的万亿美元 AI 平台。继采购英伟达与 AMD 芯片,部署 10GW 与 6GW 数据中心后,它终于官宣了与博通的合作。这款传闻已久的定制 AI 芯片,已经秘密设计了 18 个月,有望在 2026 年下半年投入使用,并于 2029 年底全面部署,整体规模高达 10GW。

这款 AI 芯片为推理而生。按照参与该芯片设计的首位核心员工的说法,早在 o1 正式发布前的几个月内,即进入去年下半年,团队就已开始着手设计。期间,公司的模型团队与芯片团队,以及博通合作团队,就已经紧密协作起来,试图把智能的成本与延迟,一起压向零的边际。

事实上,OpenAI 与博通的合作,已经超出了最初的设想。与其说它们在合作开发一款定制 AI 芯片,不如说它们在合作定制一整套完整的,能够直接塞到数据中心里的算力系统。据双方的声明,OpenAI 负责设计芯片和系统整体架构,博通设计端到端的以太网、PCIe 和光纤连接解决方案组合。

它还是一套协同创新的方法论,围绕 OpenAI 生态而生。OpenAI 宣称将其 " 在开发前沿模型和产品过程中积累的经验直接嵌入到硬件中,从而释放更高水平的功能和智能 "。博通也称,双方讨论的下一件事,是将算力从芯片的二维空间堆叠到三维空间,并将光学也引入其中。

这背后反映的是 OpenAI 正在打造一个自我闭环的模型 + 算力帝国。过去,OpenAI 曾几次尝试让芯片厂商围着自己转。GPU 紧缺和溢价已经成为了 OpenAI 的瓶颈;更要命的是,OpenAI 越来越绑定在英伟达的 CUDA 体系内,无法迅速最大化地释放模型性能,也不会符合推理时代的 token 经济学。

由 OpenAI 研究员创建的深度学习编译器 Triton,最初兼容 CUDA,然后逐步扩展到 AMD ROCm 等更多架构,让旗下模型能跨硬件运行。微软最初发布 Maia 100,宣传的可是专为 Azure 平台设计,旨在运行生产级 OpenAI 模型。在初版 " 星门项目 " 的蓝图里,OpenAI 更愿意使用以太网,希望避免使用 InfiniBand。

OpenAI 的野心是构筑自己的万亿美元 AI 商业生态。这次 OpenAI 开发者日,奥特曼展示了 ChatGPT Apps SDK、AgentKit 等,相当于要让 ChatGPT 成为新的操作系统。但当天在接受 Stratechery 采访时,奥特曼却声称,自己现在花时间最多的地方,是基础设施。

这呼应了 Groq 创始人 Jonathan Ross 的最近的观点。谁掌控算力,谁才真正掌控 AI," 自己造芯片,并不只是拥有一颗芯片,真正意义是你把命运掌握在自己手里 "。

去年初,奥特曼提出的 7 万亿美元 AI 基础设施计划遭到所有人的嘲笑与质疑,如今,奥特曼计划在 2033 年就将算力规模提升到惊人的 250GW,差不多就要对应超过 10 万亿美元资金。

OpenAI 的星门计划之上,正在构筑出全球芯片星际舰队:英伟达、AMD、博通、英特尔(通过英伟达),还包括 ARM、三星、海力士等。

ARM 已经深度介入,为 OpenAI 与博通的定制 AI 芯片,开发一款高度适配的专用 CPU 架构。有意思的是,ARM 是软银的子公司,而软银又是 OpenAI 的股东与客户。软银签下的其中一份订单,就是从 OpenAI 购买技术,以帮助 ARM 缩短芯片开发周期。这次 OpenAI 与博通合作,OpenAI 联合创始人 Greg Brockman 就宣布了 AI 设计 AI 芯片这一噱头。

资本市场正在酝酿 " 内存超级周期 ",无论是 DRAM、NAND 还是 HDD,首次同时面临短缺。DRAM 是制造 HBM 的基础,HDD 是储存 Sora 生成的视频的最廉价的储存介质,而 NAND 的未来将是有望取代 HBM 市场地位的 HBF。OpenAI 已经开始与三星和 SK 海力士合作开发 AI 芯片内存。

而在中国开启算力生态软硬件协同的关键角色是 DeepSeek。此前疯传的《AI 2027》报告,虚构了美国公司 OpenBrain 与中国公司 DeepCent 之间的竞争,决定了智能体的未来。它们映射的正是现实世界的 OpenAI 与 DeepSeek,以及各自所引领的 AI 生态。

DeepSeek 创始人梁文锋很早就认为,中国的 AI 发展缺乏硅谷的软硬件协同生态," 很多国产芯片之所以发展受限,是因为缺乏配套的技术社区,往往只能获得第二手信息。" 没有前沿大模型的协同,闭门造不出好芯片。

自去年以来,DeepSeek 对外公布了自己的代码,还在陆续发表的论文里 " 指导 " 中国硬件厂商前来适配,设计出未来芯片的架构,包括突破 CPU 与 GPU 通信瓶颈与更智能化的互联网络。从魔改 PTX 到使用 UE8M0 FP8 Scale 的参数精度,DeepSeek 先榨取英伟达 GPU 算力,再牵引国产算力生态的演进。

近期,DeepSeek-V3.2-Exp 更新,作为实验性版本,它不仅探索了新的稀疏注意力机制,也在推动中国算力生态的协同创新与格局演进。该模型的开发,用到了一款 " 土生土长 " 的新型编程语言 TileLang,将是替代目前主流的 OpenAI 领域特定语言(DSL)Triton 的有力备选,已经扩展支持多款国产芯片。

该模型发布后,华为昇腾和寒武纪均第一时间宣布完成适配工作,加上海光、昆仑芯、沐曦等的深度适配,意味着国产 AI 算力生态的软硬件协同,已经进入实战阶段。

尽管 DeepSeek 目前仍然是一家 AGI 实验室,但它的技术信仰仍然需要强大的算力支持。可以预见的将来,它会别英伟达 GPU;让中国头部芯片厂商同步适配自己,相当于也 " 掌握了自己的命运 "。开源与分享正在成为中国创新的公共品,模型与芯片厂商可以更快速地验证设计方向,尽量减少协同成本。

围绕 OpenAI 的生态是封闭的。源自这一体系的创新,将会通过硬件合作伙伴,部分或间接地外溢至其他模型层以及应用层企业。但更多的仍然是锁定在 OpenAI 自己的技术黑箱与价值体系之内。

中国与美国的 AI 竞争,正在从算力与模型的单打独斗,收敛到软硬件协同的开源与闭源的竞争。狂热的资金仍在继续涌入。在美国,已经从产业资本迈向金融资本下场的新阶段;在中国,无论是芯片还是模型,厂商数量众多,各地建设热火朝天,力争把算力变成生产力。

(文章为作者独立观点,不代表艾瑞网立场)

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai芯片 英伟达 芯片 博通 美国
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论