钛媒体 22小时前
GPU进基站?AI-RAN的真争议
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

文 | 半导体纵横

过去一年,如果你关注通信行业的新闻,大概很难躲过 "AI-RAN" 这个词。英伟达和软银牵头成立的 AI-RAN 联盟,T-Mobile 西雅图的实验室测试,Indosat 在印尼完成的 AI 通话演示——一连串的动态似乎在传递一个信号:GPU 即将大规模进入基站,AI 正在从 " 网络上层 " 下沉到 " 无线底层 "。

但如果你有机会和运营商的朋友聊一聊,会发现他们的态度远没有发布会舞台上那么激动。兴奋是有的,但更多的是审慎、观望,甚至是一丝不易察觉的疑虑:基站里真的需要塞进一块 GPU 吗?这笔账到底怎么算?AI-RAN 究竟是一场技术革命,还是又一轮由芯片厂商主导的 " 竞赛 "?

基站里的 " 聪明 " 与 " 不聪明 "

要理解 AI-RAN 到底想做什么,得先回到无线接入网这个老问题上。

通信行业一直有一个心照不宣的事实:在整个移动网络里,无线接入网(RAN)是最 " 不聪明 " 的那一段。核心网早就虚拟化、云化了,各种开源平台和通用服务器跑得风生水起。但走到基站这一层,情况完全不同——专用芯片、封闭接口、定制化硬件,像一个黑盒子,外面的人进不去,里面的数据出不来。

这听起来像个技术问题,但归根结底是个经济问题。基站部署量太大了,一个中等规模的运营商可能拥有几十万个站点。在这个量级上,任何一点成本波动都会被放大到惊人的数字。专用芯片虽然不够灵活,但它的功耗、成本、稳定性经过了几十年的极致优化,是运营商能够接受的 " 最优解 "。

但问题也随之而来。当 AI 开始渗透到网络的每一个角落,当运营商希望通过智能化来优化覆盖、提升容量、降低能耗时,RAN 成了那个最难下手的环节。你可以在核心网里随便部署 AI 服务器,可以给运维中心配上一堆 GPU 来做网络优化,但走到基站门口,路就断了。

AI-RAN 的野心,就是想打通这最后一公里。但需要厘清的是,AI 与 RAN 的关系其实是双向的。业界通常用两个词来定义这种关系:一个是 "AI for RAN",即用 AI 来优化无线接入网的性能——信道估计、波束管理、负载均衡,这些都是 AI 赋能网络的典型场景;另一个是 "RAN for AI",即把基站本身变成 AI 算力的提供者,让遍布各地的站点成为分布式推理的基础设施。英伟达的逻辑很简单:与其让 AI 在基站外面转悠,不如直接把它请进去,让基站自己变聪明。

听起来很美好。但基站真的需要那么聪明吗?

GPU 进基站,谁在买单

这就要算一笔账了。

先看成本。一块适合基站的 GPU,价格不是小数。功耗也不是小数。如果要在几十万个基站里全部部署,那将是一笔天文数字的资本开支。而运营商现在的日子并不好过,流量增长但收入不增,是过去十年全球电信行业的普遍困境。在这种背景下,让运营商掏钱给每个基站升级 GPU,难度可想而知。

三星电子美国公司网络事业部战略与营销副总裁 Alok Shah 表示:" 业界正在谨慎评估与在基站中引入 GPU 相关的总拥有成本模型和商业案例。迄今为止,在站点层面全面转向 GPU 计算在资本支出和运营成本上都面临挑战,但该领域的创新很活跃。我们可能会发现,在未来几年内,会有一部分站点的部署在经济账上是可行的。" 换句话说,账还没算清楚,谁也不敢轻易拍板。

再看必要性。基站真的需要 GPU 吗?还是说,现有的 CPU 已经够用了?这其实是一个被忽略的问题。新一代的 x86 CPU,性能早已不可同日而语。很多 AI 推理任务,尤其是轻量级的、对时延要求不高的任务,CPU 完全能应付。如果 CPU 能解决,为什么要多花一笔钱去买 GPU?

一位国内运营商的专家说得更直白:如果说算力一定要放到基站里,而且一定要放 GPU,我打个问号。成本太高,运营商根本接受不了。而且,把算力锁定在基站里,反而限制了对算力的灵活调度——边缘节点、汇聚机房、中心云,算力应该是一个可以动态调配的资源池,而不是固化在每一个站点。但也有不同观点认为,按演示数据推算,单站闲置算力若按云计算市场价的 70% 出租,五年内就能收回 30% 的基站建设成本。

这些话背后,折射出一个更本质的分歧:AI-RAN 究竟应该怎么部署,是 " 全量升级 " 还是 " 按需引入 "?英伟达作为芯片厂商,当然希望 GPU 铺得越广越好。但运营商要考虑的是,到底哪些场景真正需要基站级别的 AI 能力。

哪些场景 " 非 AI 不可 "

如果说 5G 时代,AI 还算是个 " 加分项 ",那么到了 6G,情况可能会发生变化。通信行业普遍认为,6G 网络将面临一个根本性的挑战:网络的复杂程度将达到 " 超越人类规模 " 的阈值,人脑已经无法实时管理。届时,AI 不再是可选项,而是必选项。

这不是危言耸听。5G 时代,基站已经有了大规模 MIMO 天线,波束赋形的参数配置已经复杂到需要算法辅助。到了 6G,频段更高、天线更多、业务更杂,靠人工脚本和预设策略去管理,几乎不可能。换句话说,未来的网络必须是 " 自智 " 的——自己感知、自己决策、自己优化。

这就把问题倒过来了:不是 " 基站里为什么要放 AI",而是 " 不放 AI 的基站还能不能跑得动 "。

具体到场景,有几个方向已经比较清晰。

一个是信道估计。无线信号在空中传播,受到干扰、衰落、遮挡的影响,基站需要实时估计信道状态,才能决定用什么样的参数发送数据。传统算法有局限,而 AI 可以通过学习历史数据,更准确地预测信道变化。富士通旗下的一个团队给出的数据是:用 AI 改善信道估计,可以把上行链路性能提升 20%,某些场景下甚至能达到 50%。

另一个是波束管理。大规模 MIMO 基站可以生成多个窄波束,覆盖不同方向的用户。但用户是移动的,波束需要跟着人走。如果波束切换不及时,就会掉线。AI 可以预测用户的移动轨迹,提前把波束切过去,让用户的体验更流畅。

还有频谱共享。传统做法是,如果某个频段受到干扰,系统干脆把整个频段关掉。但 AI 可以做得更精细——识别出干扰源,只屏蔽受影响的频率,其他部分照常使用。MITRE 在 2025 年展示的一个应用,做的就是这件事。

这些场景的共同点是:需要实时响应、需要本地决策、无法把所有数据都传回中心处理。这正是基站级 AI 的意义所在。

基站 " 夜间兼职 "

如果说 "AI for RAN" 是为了让网络跑得更顺,那么 "RAN for AI" 则是在探索另一种可能性:基站能不能不只是花钱的基础设施,还能成为赚钱的资产?

软银和诺基亚最近做了一个很有意思的试验。他们在日本搭建了一套基于英伟达 GPU 的 AI-RAN 平台,白天,基站的算力优先保障 5G 通信——处理用户的语音、视频、数据请求;到了夜间,当网络流量大幅下降,这些原本闲置的 GPU 算力并没有空转,而是通过软银的 AITRAS 编排器自动切换成 " 算力供应商 " 模式,为第三方客户运行 AI 推理任务。

换句话说,同一个基站,白天是通信基站,晚上变成了边缘 AI 服务器。诺基亚首席技术兼 AI 官 Pallavi Mahajan 对此评价:" 随着全球 AI 处理需求加速增长,这个项目展示了如何利用分布式网络资源来提供可扩展、高效且可持续的 AI 服务。"

软银先进技术研究所副总裁 Ryuji Wakikawa 则说得更直接:" 在 AI-RAN 中,最大化计算资源的价值非常重要。我们增强了 AITRAS 编排器,使其能够将资源分配给外部 AI 工作负载,从而将这些资源作为新的收入来源加以利用。"

这种 " 基站夜间兼职 " 的模式,触及了一个更深层的变革:基站正在从单纯的 " 成本中心 " 向可能的 " 利润中心 " 演进。当然,这还只是试验。客户画像还不清晰——是卖给互联网公司做边缘推理?还是给工业企业做机器视觉?商业模式还在探索中。但它至少打开了一个想象空间:如果全城的基站都能在夜间贡献算力,那将是一张多么庞大的分布式计算网络。

两条腿走路:GPU 与 CPU 的长期共存

回到最初的问题:基站里到底需不需要 GPU?

最可能的答案是:部分需要,部分不需要。就像今天的网络设备,有的用专用芯片,有的用通用 CPU,有的用 FPGA,各取所需。未来的基站也不会是单一形态,而是根据场景和成本,灵活选择计算架构。

对于城市热点、高流量区域,基站可能确实需要 GPU 来支撑复杂的 AI 任务;对于偏远地区、低负载站点,CPU 就够用了,没必要多花钱。还有一种可能是,GPU 不是部署在每一个基站,而是部署在边缘节点,覆盖一片区域内的多个基站,兼顾算力供给和成本控制。

英伟达自己也意识到了这一点。它的 AI Aerial 平台,核心卖点之一就是 " 资源共享 " ——同一块 GPU,可以动态分配给 RAN 任务和 AI 任务,忙时做通信,闲时做推理,提高利用率,摊薄成本。这其实是在回应运营商的成本顾虑:你可以不用为 AI 专门买一块 GPU,它可以和 RAN 共用一块。

软银在日本做的试验,就是这个思路。他们用一套系统同时跑 5G 和第三方 AI 应用,证明了两者可以共存,且互不干扰。对于运营商来说,这提供了一种新的可能性:基站不再只是成本中心,还可以变成算力服务的输出节点,创造新的收入来源。

当然,这还只是试验。从试验到规模化商用,还有很长的路。标准怎么定、接口怎么统一、业务模式怎么设计,都是待解的难题。业内人士的回答是:" 客户画像还不清晰,是卖给互联网公司做边缘推理?还是给工业企业做机器视觉?商业模式还在探索中。"

结语

站在 2026 年回望,AI-RAN 的讨论已经从 " 要不要做 " 转向了 " 怎么做 "。英伟达用两年时间,把一个概念做成了一个产业联盟,从 T-Mobile 到软银,从诺基亚到思科,越来越多的大玩家加入其中。这本身就说明,方向是对的。

但 " 方向对 " 不等于 " 落地快 "。电信行业有其自身的节奏,几亿用户的网络不能随便折腾,稳定可靠永远是第一位的。"AI-RAN 架构能否实现规模化商用,关键取决于其性能表现、成本控制与运行稳定性。今年 MWC 上的各类演示显示,相关技术基础正持续成熟,云计算、人工智能与通信基础设施的融合,已从概念构想逐步进入可控验证落地阶段。"

"AI 进基站,不会是颠覆式的推倒重来,而是渐进式的渗透融合。"这个过程可能需要五年、十年,但一旦完成,网络将不再是今天的网络。

到那时,基站不仅是收发信号的铁塔,还是感知世界的节点;网络不仅是传输数据的管道,还是承载智能的基础设施。而这一切的起点,正是今天这些充满争议、有待验证的试验和讨论。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

gpu ai 芯片 英伟达 t-mobile
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论