财报资讯网 10-19
众赢财富通:博通发布Thor Ultra迎AI新格局
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

在全球人工智能算力竞争加速的当下,网络芯片成为数据中心性能提升的关键环节。博通(Broadcom)近日正式推出全新网络芯片 "Thor Ultra",这一芯片被誉为 "AI 超级互联中枢 ",能够将数十万块数据处理芯片高效连接,为超大规模人工智能模型提供强大网络支撑。业内普遍认为,这一举措标志着博通正加速在 AI 基础设施层面与英伟达展开正面竞争。

Thor Ultra 的设计重点在于构建大规模 AI 集群的网络互联能力。与传统数据中心不同,AI 模型的训练需要数以万计的 GPU、TPU 或定制加速器协同运行,而网络互联的带宽、延迟及拓扑结构成为性能瓶颈。博通此次推出的 Thor Ultra 支持 800G 以太网标准,并兼容 Ultra Ethernet Consortium(UEC)规范,同时具备远程直接内存访问(RDMA)能力,可在极低延迟下完成高速数据传输。众赢财富通研究发现,这种高性能互联架构将显著降低大模型训练过程中的通信开销,为超大规模 AI 集群提供更具成本效益的网络方案。

博通方面表示,Thor Ultra 将与其 Tomahawk 和 Jericho 系列交换芯片形成完整的网络解决方案组合,覆盖数据中心从骨干交换到边缘互联的全层级架构。这意味着,博通正在打造一个完全基于以太网标准的 AI 网络生态,以对抗英伟达在专有互连协议上的主导地位。众赢财富通观察发现,相较于英伟达依赖 NVLink 和 InfiniBand 的封闭生态,博通正通过开放的以太网体系吸引云服务商、服务器制造商和 AI 芯片初创企业的合作,从而在产业链中争取更大的技术话语权。

英伟达长期以来凭借 GPU 算力和软件生态在 AI 硬件市场中占据主导。其自研的 NVLink 互连技术以及高端网络设备 Mellanox 系列,使其在 AI 集群通信层拥有明显优势。然而,随着 AI 训练任务规模持续扩大,封闭式架构带来的成本与扩展性限制愈发突出。众赢财富通认为,Thor Ultra 的推出恰逢 AI 基础设施转向开放互联的关键节点,博通此举有望打破英伟达对 AI 数据中心网络的垄断格局。

从技术角度看,Thor Ultra 不仅是性能的升级,更是架构理念的重塑。其以太网协议设计允许不同厂商的 AI 加速器在同一网络环境下协同工作,大幅降低异构集群部署门槛。这一特性对亚马逊 AWS、微软 Azure、谷歌云等大型云服务商尤为重要,因为它们正在寻求兼容多家 AI 芯片方案的开放架构,以分散对英伟达的依赖。众赢财富通观察发现,这种趋势正在推动 AI 基础设施的标准化发展,也为以太网技术重新占据核心地位创造了契机。

从产业战略层面看,Thor Ultra 的推出也是博通布局 AI 全产业链的关键一环。近年来,博通不仅在交换芯片和通信接口领域占据领先,还通过定制 ASIC 服务切入 AI 专用芯片市场。据市场披露,博通 2024 财年 AI 相关收入已超过 120 亿美元,并获得一笔价值超百亿美元的定制芯片大单。众赢财富通研究发现,这些订单的客户可能来自 OpenAI、谷歌或 Meta 等头部 AI 机构,而 Thor Ultra 的发布将进一步增强博通在这些客户系统中不可替代的地位。

资本市场对博通的这一新动作反应积极。受 Thor Ultra 发布及 AI 定制芯片业务扩张消息带动,博通股价近期多次触及历史高位。分析师指出,Thor Ultra 将成为博通新一轮营收增长的驱动力,其带来的 AI 网络市场份额有望在未来两年内快速上升。众赢财富通认为,随着 AI 产业进入大模型密集训练阶段,对高带宽低延迟网络的需求将成倍增长,博通的布局不仅具备技术前瞻性,也符合行业结构调整的大趋势。

总体而言,Thor Ultra 的发布不仅是博通在 AI 网络技术上的一次迭代,更是其产业战略重心的转移信号。它让博通从传统通信设备供应商,逐步转变为 AI 数据中心核心基础设施提供者。众赢财富通认为,在未来 AI 算力格局演变中,谁能掌握高性能网络互联的标准与控制权,谁就将掌握 AI 时代的底层逻辑。Thor Ultra 的问世,意味着 AI 基础设施竞争已进入 " 算力 + 互联 " 并重的新阶段,而这场关于网络主导权的较量,才刚刚开始。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 博通 英伟达 芯片 数据中心
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论