爱集微APP 04-19
集微咨询发布《数据中心及AI服务器核心芯片研究报告》
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

得益于全球各个行业的大规模数字化转型中,针对数据的大量收集、使用、分析所导致,数字经济在近些年以惊人的速度发展。当前,数据的爆发式成长及平台化运作驱动着全球数字经济的成长。

服务器算力与数字经济之间存在着密切的关系。作为数字经济的重要组成部分,服务器算力代表了设备处理和计算数据的能力。在数字经济时代,数据是最重要的生产资料之一,而服务器算力则是对数据进行处理、加工和计算的关键手段。为帮助业内人士全面详实了解数据中心及 AI 服务器核心芯片市场,集微咨询结合一手调研和数据库信息,重磅发布《数据中心及 AI 服务器核心芯片研究报告》。

《数据中心及 AI 服务器核心芯片研究报告》以数据的爆发式成长及平台化运作驱动着全球数字经济的成长、服务器算力资源是决定数字经济发展的关键、服务器出货按处理器技术细分、数据中心资本支出情况分析、全球 AI 类服务器出货情况、HBM 存储在数据中心中的重要性六大章节展开,助力业内人士多方面了解数据中心及 AI 服务器核心芯片市场情况。

服务器算力资源是决定数字经济发展的关键

集微咨询(JW Insights)认为,服务器算力的提升可以促进数字经济的发展。首先,服务器算力的提升可以加速数字经济的增长。其次,服务器算力也是数字经济的基础设施之一。最后,服务器算力也是数字经济创新发展的重要驱动力。

2022 年,美国和中国依然分列全球各国计算力指数排名前两名,美国计算力指数较 2021 年提高 5 个指数,达到 82,中国较 2021 年提高 1 个指数,达到 71。在各个细分行业中,互联网行业依然是全球计算力水平的首位,指数达到 76,制造、金融、政府紧随其后,算力指数分别为 62、61 与 56。

从服务器出货的角度来看,全球半导体产业从 2022 年进入逆周期,同时地缘性政治、疫情的零星及反复性爆发、以及全球的通胀对半导体产业的影响较大。从数据中心服务器采购角度分析,经济下行导致企业和政府对 IT 基础设施建设的投资必然会下降,这将延长数据中心的采购及换代节奏,从而导致大型云服务商和 ODM 厂商的服务器采购数量陆续下修。从零部件角度分析,服务器整机的需求下修,必然会导致整机生产节奏的下滑,这必将导致针对服务器零部件采购的节奏放缓,零部件将会长期处于去库存状态。

从产业链角度分析,2023 年 Intel 新一代 CPU 发布推迟,影响 DDR5 内存代替节奏,尽管 AIGC 应用的爆发为 AI 类服务器的出货量和 CAPEX 带来增长,但 AI 类服务器占全球整体服务器出货比重仍较小,无法决定全球服务器出货水平。同时北美云服务商资本支出疲软,中国市场东数西算项目发展不如预期,从而影响全球服务器出货量。

集微咨询(JW Insights)预计 2023 年服务器出货量比 2022 年会有 17% 以上的负增长,同时预计 2024 年全球数据中心服务器出货水平有机会成长,DDR5 的换机需求和 AI 服务器的进一步渗透会带动服务器出货成长。

从 2023 年各个国家全年服务器出货细分看,集微咨询(JW Insights)预测美国市场服务器有超过 20% 的负增长,中东欧及西欧的服务器出货量水平会有 20% 左右的下降,中国大陆的同比下降幅度也会超过 10%。

中国市场服务器出货出现下降主要归因于于互联网公司的营收水平受网络安全政策、规范游戏产业、消费疲软等因素的影响,在 2023 年的营收增长有限,从而直接影响了服务器采购 CAPEX 支出。综合互联网及云服务商以及运用商及信创、企业级应用场景的服务器出货规模双双疲软,集微咨询(JW Insights)分析认为,2023 年中国大陆市场服务器出货总量为 330 万台,中国大陆市场服务器出货水平与 2022 年相比将有超过 10% 的下降,但好于全球水平。

美国服务器市场在 2023 年归因于北美云服务商下修服务器采购需求,且北美四大云服务商针对服务器采购的资本支出在 2021 年和 2022 年出现较大的同比增长后, ( 2021 年达到 16%,2022 年达到 39% ) ,2023 年该资本支出同比增速下降到仅有 5%,远低于 2021 和 2022 年的增长水平,这种表明北美云数据中心的迭代速度趋缓,这与经济形势下行削减云服务上的资本支出也有一定关系。集微咨询认为,北美四大云服务商资本支出情况不容乐观,直接的表现结果是北美服务器市场出货的疲软。

在全球经济下行的状况下,数据中心服务器出货疲软的大环境下,在某些国家服务器出货的依然有增长点。在欧洲及中东非市场中,以色列、挪威的服务器在 2023 年出货会有超过 10% 的成长,爱尔兰的服务器出货成长超过 50%。挪威由于地理位置优势,在欧洲国家服务器出货中处于第一梯队,本年度的服务器出货增加可能与绿山公司在挪威新的数据中心布局有关。而以色列与爱尔兰的服务器出货增长不得不与 Intel 公司的战略转型联系起来,Intel 的战略转型计划在以色列与爱尔兰新建工厂。另一个出现小幅增长的地区是拉丁美洲,数据中心服务器是拉美数字经济转型的重要部分,预计 2027 年拉美市场的服务器市场规模将超过 30 亿美元。

服务器出货按处理器技术细分

2023 年全年,全球服务器出货维度,x86 架构服务器出货占比会下降至 90% 以内,低于 2022 年 93% 的水平,而 ARM 架构服务器的出货量提升至 10-14% 水平。近些年云计算和分布式数据中心架构的推广,给通用服务器带来了较大的市场空间,服务器中采购 ARM 架构的服务器渗透从 2019 年的不到 1%,成长至 2023 年的 14%。其他 RISC 架构阵营以 MIPS 和 RISC-V 为主,目前渗透率在 1% 以内,以中国国内的情况来看,这部分 CPU 的使用主要集中在小信创领域,未来会向大信创领域蔓延。集微咨询(JW Insights)分析认为,预计在 2024 年,ARM 架构 CPU 服务器的渗透率会提升到 15% 以上,x86 架构 CPU 会进一步缩小。

在各个技术架构的服务器出货维度来看,ARM 架构的服务器出货在美国和中国占比最多,预计 2023 年全年 ARM 架构服务器的出货有超过一半在美国市场,有超过 20% 在中国市场。而非 ARM 的 RISC 架构,如 Power 架构和 SPARC 架构,以及其他的 RISC 架构的服务器出货目前从全球的维度来看,最大的占比在中国。2023 年,全球 RISC 架构的服务器出货中有约 35% 在中国大陆。

在 x86 架构中,搭载 AMD 架构的服务器出货量在 2022 年超过 17%,Intel 的出货占比约为 81%,这主要得益于 AMD 先于 Intel 在 2022 年 Q3 发布最新一代的 Genoa 产品,而 Intel 直到 2023 年 Q1 才发布新一代 Sapphire Rapids 产品,这也导致了在 2023 年搭载 Intel 处理器的服务器出货量的市场份额在全部 x86 架构的服务器出货中进一步下降至 75% 以下,而搭载 AMD 处理器的服务器在 x86 架构服务器的出货占比超过 15%。

具体到中国大陆市场而言,x86 架构服务器除搭载 Intel 和 AMD 的 CPU 以外,信创产业支持其他 x86 架构 CPU 企业成长,代表企业如海光,2022 年在中国大陆有超过 20 万台的服务器搭载了海光的 CPU,集微咨询(JW Insights)预计 2023 年也在这一数量级。2022 年搭载海光 CPU 的服务器占中国大陆总体服务器出货的 5%,2023 年将成长至 6-7%。

同时,集微咨询(JW Insights)认为,在中国大陆市场,由于地缘性政治和信创业务由小信创向大信创的推进,搭载 ARM 架构 CPU 的服务器和定制化 RISC 架构 CPU 的服务器出货渗透会在未来有很大的成长空间。

数据中心资本支出情况分析

从全球的数据中心建设情况来看,2022 年全球数据中心资本支出超过 2500 亿美元,到 2023 年将成长到 2650 亿美元,同比增长超过 6%。结合整体数据中心的资本支出来看,用于服务器的资本支出超过 40%,其余则是网络、基建及配套设施,结合 2023 年的情况,约有 1070 亿美元的资本支出用于服务器建设。

从细分服务器的资本支出情况来看,约有超过 65% 的资本支出用于云服务建设,有约 30% 的服务器用于企业级服务器自用,约有 4% 的服务器资本支出用于运营商的基础设施建设。资本支出对应到服务器的采购情况来看,用于云服务商的服务器出货在 2023 年超过 900 万台,用于企业级服务器自用的服务器超过 430 万台,用于运营商基础设施建设的服务器台数超过 70 万台。与 2022 年相比,用于云服务建设的服务器在资本支出对应的数量上减少了将近 60 万台,这也说明了互联网公司在经历 2020-2022 年的疫情高增长其后,在 2023 年失去了新的增长驱动因素,虽然 AIGC 在 2023 年年初的爆发增加了服务器对 AI 大算力的需求,但整体 AI 服务器的渗透率还很低,无法决定整体互联网公司的服务器采购资本支出规模。

互联网公司或云服务公司是数据中心服务器中较大的出口,集微咨询(JW Insights)收集了全球各云服务商的服务器出货情况。需要强调的是云服务商包括公有云和内容云,并且一些没有公有云服务,依赖内容作为主要服务也盈利手段的公司在此也归于云服务公司。

以北美四大云服务商的服务器采购数目来看,2022 年采购数量超过 630 万台,其中亚马逊 220 万台,谷歌 95 万台,Meta 约 220 万台,微软不到 100 万台;中国四大云服务商采购数量约 90 万台,其中阿里巴巴采购 15 万台,百度超过 10 万台,字节跳动约 40-50 万台,腾讯约 14 万台。

2023 年,北美四大云服务商采购数目下滑至 580 万台左右,除了微软和谷歌有少许增长外,其他公司皆出现负增长;中国四大云服务商的出货维持 90 万台左右的水平,目前中国四大云服务商中,唯有字节跳动可以保持较高的采购水平,且相对于 2022 年的采购数目有小幅增长,其他云服务商采购数目基本不变。

从云服务商在全球服务器的分布情况看,针对北美四大云服务商的数据中心服务器分布来看,在北美的部署比例呈下降趋势,在 EMEA 和亚太非中国地区的比例呈现上升趋势,而针对中国四大云服务商,数据中心服务器数量在全球的分布则集中在中国大陆,在北美的部署数量呈现下降趋势,EMEA 地区也出现了小幅的渗透率上涨,但目前还没有在拉丁美洲部署实例。

全球 AI 类服务器出货情况

AI 类服务器的部署对数字经济和数据中心能效比例有着至关重要的作用,AI 类服务器对数据中心针对并行计算或特殊应用落地场景的特殊算力需求可以起到杠杆性作用,2023 年年初 ChatGPT 应用的爆发,促进了 AIGC 产业的发展。

针对 AIGC 产业的四大要素,数据、算力、模型、框架,哪一个环节都离不开数据中心服务器的支持。AI 类服务器满足了 AIGC 产业从最开始的模型训练到模型优化与固化再到推理模型的转换及上线部署的全过程。

目前 AI 类服务器还是以推理为主,云端训练的服务器渗透小于推理服务器的水平,AI 行业从被动式 AI 到生成式 AI 的概念成功落地后,云端针对训练的服务器需求增速,导致训练服务器的需求量会在近两年内增多。回顾 2022 年的情况,集微咨询(JW Insights)预计训练服务器与推理服务器的比重在 3:7,未来当 AIGC 产业从细分 AIGC 到通用 AIGC 转变后,AIGC 行业会进入到 AIGC 与众多 APP 或 API 结合的下半场,推理类服务器的需求又会增多,预计在 2025 年以后,训练类服务器和推理类服务器的比重将会在 3.5:6.5 的水平。

从在服务器硬件维度看,2022 年全球 AI 服务器市场规模为 150 亿美元,2023 年有机会成长至接近 500 亿美元水平,若训练与推理的成本在现有基础上不会有太大的下降,2027 年 AI 服务器的市场规模将成长至 900-1000 亿美元,约占整体服务器市场规模的 50%。

2022 年全球 AI 服务器出货约 90 万台,2023 年预计出货 120 万台,预计到 2026 年全球 AI 服务器出货 270 万台。以全球 AI 服务器出货水平分析,结合训练服务器与出货服务器比重分配,及单台服务器加速卡使用情况等方面。集微咨询(JW Insights)预计到 2026 年,AI 加速卡市场规模将在 700-800 亿美元。

HBM 存储在数据中心中的重要性

HBM 适用于高存储器带宽需求的应用场合,并被广泛应用于高性能计算、人工智能、数据中心等领域。在数据中心方面,HBM 的高带宽、低延迟和低功耗特性可以满足数据中心对存储器的要求,为数据中心提供了强大的存储支持。

在人工智能领域,HBM 为 AI 服务器的 " 标配 ",可以帮助 AI 服务器在短时间内处理大量数据,包括模型训练数据、模型参数、模型输出等。随着 AI 大模型的数据计算量激增,需要应用并行处理数据的 GPU 作为核心处理器,而 " 内存墙 " 的存在限制了 GPU 数据处理能力,HBM 突破了内存容量与带宽瓶颈,可以为 GPU 提供更快的并行数据处理速度,打破 " 内存墙 " 对算力提升的桎梏,被视为 GPU 存储单元理想解决方案,将在 AI 发展中持续收益。

尽管在 HBM 于其制造工艺和封装技术方面存在难点,但 HBM 的优点使得它在某些特定应用中具有优势。例如,HBM 可以提供比传统 DRAM 更高的带宽和更低的功耗,使其在高性能计算和数据中心等需要大量数据传输和处理的应用中具有优势。同时,HBM 的 3D 结构也使得它可以提供更高的存储密度,从而在需要大量存储空间的应用中发挥作用。

HBM 产品主要用于高端 AI 加速卡和高端数据流网卡类应用,以高端 AI 加速卡为绝对主要的消耗出口。按照英伟达 2022 年高端 GPGPU 卡出货情况及未来预期,HBM 存储的市场规模将超过 90 亿美元。

集微咨询(JW Insights)认为,HBM 未来的发展趋势主要围绕三个维度,第一个维度是解决为了配合 I/O 速率提升、低信噪比损失及低热损失同时的先进封装技术的转变,HBM 中 Core Die 之间以及 Core Die 与 Logic Die 之间的封装形式会从 Micro Bump 形式转变到 Hybrid Bonding 形式;第二个维度是 HBM 存储器件的 I/O 频率与位宽的提升,HBM3 的位宽水平还处于 1024bit,HBM 的位宽将带来一倍的提升,至 2048bit,在位宽提升的同时 HBM 的存储时钟频率也在提升,HBM3e 的频率将达到 8-9.2Gbps;第三个维度是 HBM 与其他芯片在互联时的架构发展趋势,目前 HBM 与其他芯片如处理器芯片或 AI 芯片需要通过 interposer 进行 2.5D 封装,但针对 Interposer,还是无源器件,除进行信号传输之外没有其他类型的工作,未来 Interposer 中会引入一些其他器件如电源类、Logic 类以及有助于提高通信速率的光模块类器件。同时,HBM 与处理器芯片也可能在未来发生解耦,通过额外的光模块进行通信,而不再需要 inter-poser 的支持。

目前,国内存储 IDM 厂商和 Fabless/IP 及 OSAT 公司都希望加入到国产 HBM 生态中,对于存储 IDM 公司有得天独厚的 core Die 设计、制造资源,而 Fabless 公司可以从技术服务和 HBM 与处理器整合的维度参与 HBM 的统筹设计、流片及封测寻源等工作,对于 OSAT 公司来说,拥有封测资源,可以从 TSV、HB 等方面参与 HBM 技术支持工作。

特别是 IP 公司,因为在地缘性政治日益严峻的背景下,大芯片产品往往无法寻找到可靠的流片资源,这样就不得不将大芯片打散,以 Chiplet 的形式,以小芯粒为单位,各自寻找流片资源,绕开大芯片的流片限制。这样一来 IP 公司可以改变商业模式,用 Fabless 公司的形式将实体芯粒交付给最终用户,集微咨询认为在 HBM 与处理器的联合生态中,GPU/NPU IP 或 DRAM/HBM PHY IP 公司会发挥一定作用。

目前,《数据中心及 AI 服务器核心芯片研究报告》已在爱集微官网与 APP 正式上线,欢迎登录爱集微官网、爱集微 APP,首页点击 " 集微报告 " 栏目,即可进行订购。

查看更多集微报告请点击

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

智慧云

智慧云

ZAKER旗下新媒体协同创作平台

相关标签

数据中心 ai 芯片 数字经济 美国
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论