半导体产业纵横 7小时前
2026年,AI服务器贵、贵、贵
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

文 | 半导体产业纵横

2026 年,将是 AI 服务器系统级升级的关键窗口期。

摩根士丹利在最新研报中称,AI 服务器硬件正在经历一场由 GPU 和 ASIC 驱动的重大设计升级。2026 年,英伟达即将推出的 GB300、Vera Rubin 平台和 Kyber 架构,以及 AMD 的 Helios 服务器机架项目,都会带来更高的计算能力和机柜密度。

与之匹配的,将是更有效的电源解决方案、标配的液冷散热方案以及更高要求的PCB高速互联。这场系统级升级,也将让 2026 年的 AI 服务器迎来 " 不可估量的贵 "。

AI 服务器,需求爆发

AI 服务器需求还在持续上升。

大摩预测,仅英伟达平台,AI 服务器机柜的需求就将从 2025 年的约 2.8 万台,在 2026 年跃升至至少 6 万台,实现超过一倍的增长。与此同时,AMD 的 Helios 服务器机架项目(基于 MI400 系列)也获得了良好进展,进一步加剧了市场对先进 AI 硬件的需求。

当前,英伟达 Blackwell 平台,特别是 GB200 芯片,是当前 AI 服务器市场的核心驱动力。

到了 2026 年,AI 硬件从 H00/H200 时代,转向 NVIDIA 的 GB200/300(Blackwell 平台)及后续的 Vera Rubin(VR 系列)平台所驱动的新周期。

芯片功率不断突破上限。从 H100 的 700W TDP(TDP:散热设计功耗),到 B200 的 1000W,再到 GB200 的 1200W,直至 2026 年下半年登场的 Vera Rubin(VR200)平台,其 GPU 最大 TDP 将飙升至 2300W,而 2026 年末的 VR200 NVL44 CPX 更是高达 3700W。

随着 GPU 功耗逼近 4kW,传统风冷方案彻底失效,液冷成为唯一可行路径。英伟达已在 GB200 平台中将液冷作为标准配置,并与主要 OEM 厂商联合开发定制化冷板接口,确保热量能高效传导至冷却回路。

此外,供电系统也面临重构。主流服务器厂商正从 12V VRM 向 48V 直流母线迁移,以减少转换损耗并提升电源响应速度。这些变化意味着未来的 AI 数据中心将不再仅仅是 " 放满 GPU 的机房 ",而是一个集电力、冷却、信号传输于一体的复杂工程系统,其建设成本与运维难度将显著上升。

这都是导致 AI 服务器 " 变贵 " 的原因。

AI 服务器代工厂商,产能全开

随着英伟达在下半年转向 Blackwell Ultra 平台的 GB300/B300 后,明年会再迎来迭代的 Vera Rubin 平台所驱动的新周期。

从交付主体看,鸿海、广达、纬创、纬颖四家具备 NVIDIA Certified Systems 认证资质的 ODM 厂商,构成了当前 GB200/GB300 整机柜的主要供应方。其中,鸿海为首批完成 GB200 及 GB300 整机柜量产交付的厂商。

鸿海第三季度 AI 服务器机柜出货季增幅度高达 300%。整体来看,鸿海 2025 年 AI 服务器收入预计将超过 1 万亿新台币的目标,占据 40% 的市场份额。管理层预计 GB200 与 GB300 不会出现重大过渡问题,并表示 GB300 将在 2025 年下半年主导出货。

近期,广达、纬创及纬颖 11 月营收齐创单月历史新高。广达、纬颖营收分别达 1929.47 亿元及 968.85 亿元新台币,环比增幅分别为 11.4% 和 6.2%。最新数据显示,纬创表现最为突出,11 月合并营收冲上 2806.24 亿元新台币,环比增 51.6%,同比增幅更高达 194.6%。

大摩预计,11 月单月 GB200 出货量为 5500 柜,较 10 月成长 29%。其中广达出货 1000-1100 柜、纬创 1200-1300 柜、鸿海约 2600 柜。

从 2025 年度 GB200、GB300 机架服务器各 ODM 厂出货的市场占比来看,鸿海占过半的市场份额,高达 52%;纬创约占 21%;广达占约 19%;就产品别来看,GB200 占比高达 81%,GB300 则约 19%。

分析预期,随着英伟达新款 GB300 架构 AI 服务器进入出货旺季,三家厂商本季业绩有望齐创新高,推动全年营收交出至少年增五成以上的优异成绩。

产业链升级

今年9 月下旬,英伟达 GB300 AI 服务器出货。到了 2026 年下半年,Vera Rubin 系列出货,其中包括电源、散热设计均与 GB 系列不同,这对于零组件厂来说是出货重新洗牌的机会,也带动了整个产业链的升级。

电源

随着 AI 工作负载呈指数级增长,数据中心的功率需求也随之激增。以搭载 NVIDIA GB200 NVL72 或 GB300 NVL72 的设备为例,需配备多达 8 个电源架为 MGX 计算及交换机架供电。若沿用 54V 直流配电,在兆瓦级功率需求下,Kyber 电源架将占用高达 64U 的机架空间,导致计算设备无安装空间。而在 2025 年 GTC 大会上,NVIDIA 展示的 800V 边车方案,可在单个 Kyber 机架内为 576 个 Rubin Ultra GPU 供电;另一种替代方案则是为每个计算机架配置专用电源架。

传统的 54V 机架内配电系统专为千瓦级机架设计,已无法满足现代 AI 工厂中兆瓦级机架的供电需求。英伟达正将其电源供应策略提升至全新战略高度,通过下一代 Kyber 平台,将技术护城河从芯片算力延伸至整个数据中心的电力架构,意图定义未来 AI 工厂的标准。

英伟达的AI 服务器电源战略 "Kyber" 正双线推进,其量产目标设定在 2026 年底前,早于市场普遍预期的 2027 年。

据天风国际证券分析师郭明錤分析,Kyber 项目的参考设计范畴已显著扩展,不再局限于 GPU 与机柜层级,而是将整个数据中心的供电与基础设施纳入规划,包括 800 VDC/HVDC 配电和固态变压器(SST)的应用。也就是说,自 Kyber 世代起,电源架构的重要性在英伟达内部已提升至与半导体同等的战略地位。

据大摩预测,到 2027 年,为 Rubin Ultra 机柜(采用 Kyber 架构)设计的电源解决方案,其单机柜价值将是当前 GB200 服务器机柜的 10 倍以上。同时,到 2027 年,AI 服务器机柜中每瓦功耗对应的电源方案价值,也将比现阶段翻倍。

散热

随着数据中心 CPU 和 GPU 性能的不断提升,其功耗也随之激增,散热成本上涨的趋势非常明显。

英伟达的液冷技术路线呈现清晰的渐进式升级特征。早期 GB200 采用单板单向冷板 + 风冷组合方案,冷板覆盖 CPU、GPU 等高温区,风冷负责电源等低温部件。新一代 GB300 全面升级为全冷板液冷方案,可稳定应对 1400 瓦散热需求。面向未来 Rubin 芯片的超高功耗场景,英伟达已布局两相冷板液冷与静默式(浸没式)液冷耦合方案。

具体来看,英伟达 GB300 NVL72 机架级 AI 系统,单单是液冷散热组件的价值就高达 49860 美元(约合人民币近 36 万元),这已经比 GB200 NVL72 系统高了大约 20%。

有数据表明,下一代 Vera Rubin NVL144 平台的散热总价将更高。随着计算托架和交换机托架的冷却需求进一步增加,预计每个机柜的冷却组件总价值将增长 17%,达到约 55710 美元(约合人民币近 40 万元),其中为交换机托架设计的冷却模块预计价值将显著增长 67%。

高端 PCB

AI 服务器等硬件升级推动高端 PCB 需求激增。每一次 GPU 迭代,都伴随着对 PCB 层数、材料等级和尺寸的更高要求。

当前,随着服务器功能的增强和算力的提升,在一些功能板卡上,例如 BMC(基板管理控制器)板卡、网卡以及 PoE(以太网供电)卡上的用量都有所增加。在迭代趋势方面,PCB 的层数正向更高端发展,目前普遍已经达到 44 至 46 层。

高端 PCB 正展现出巨大需求潜力。Prismark 数据显示,2025Q1 全球 PCB 市场规模同比增长 6.8%,其中高端 HDI 板和 18 层以上高多层板需求增速分别达 14.2% 和 18.5%。目前,包括东山精密、沪电股份等在内的头部厂商正将新增产能倾斜至 18 层以上的高端品类。

更关键的是,PCB 产品的迭代不仅仅是数量层级的提升,更是价格的翻倍式增长,这将直接体现在利润的大幅增加上。例如,从 400G 升级到 800G 或 1.6T,PCB 的价格不是增长 20% 或 30%,而是成倍增长。

沪电股份表示,AI 仍然是当前确定性最强的需求。从海外资本开支预期可看到云计算厂商正在争相在 AI 基础设施布局,2025 年 META、谷歌、微软、亚马逊资本开支分别同比增加 60%、43%、45%、20%,AI 服务器从以往的 14~24 层提升至 20~30 层,交换机提升至 38~46 层,部分产品还会引入 HDI 工艺,行业附加值有望增长。

金主已备好 " 黄金 "

云厂商们已经做好了准备。在 AI 服务器需求增长与成本升级的情况下,全球主要的八大 CSPs 资本支出持续扩大,为 " 变贵 " 的 AI 服务器提供了需求支撑。

TrendForce 集邦咨询将 2025 年全球八大主要 CSPs 资本支出 ( CapEx ) 总额年增率从原本的 61%,上修至 65%。预期2026 年 CSPs 仍将维持积极的投资节奏,合计资本支出将进一步推升至 6,000 亿美元以上,年增来到 40%,展现出 AI 基础建设的长期成长潜能。

这里统计的八大 CSPs 包含谷歌、AWS、Meta、微软、Oracle(甲骨文)、腾讯、阿里、百度。面对 AI 数据和云端需求的激增,谷歌把 2025 年的资本支出上调到 910-930 亿美元;Meta 亦上修 2025 年资本支出至 700-720 亿美元,并指出 2026 年还将显著成长;Amazon(亚马逊)则调升 2025 年资本支出预估至 1250 亿美元。

2026 年,AI 服务器会变得不可估量的贵。从 GPU 功耗突破到液冷、供电、PCB 的全链条升级,再到代工厂产能与成本的同步提升,每一环都在推高最终价格;而 CSPs 的持续投入,又让这场 贵价升级 " 有了坚实的需求基础。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 英伟达 amd gpu 芯片
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论