财联社-深度 10-11
AMD发布英伟达竞品AI芯片 预期市场规模四年到5000亿美元
index.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

财联社 10 月 11 日讯(编辑 史正丞)在 AI 算力领域,一直活在英伟达阴影里的 AMD 在周四举办了一场人工智能主题发布会,推出包括 MI325X 算力芯片在内的一众新品。然而,在市场热度平平的同时,AMD 股价也出现了一波明显跳水。

作为最受市场关注的产品,MI325X 与此前上市的 MI300X 一样,都是基于 CDNA 3 架构,基本设计也类似。所以MI325X 更多可以被视为一次中期升级,采用 256GB 的 HBM3e 内存,内存带宽最高可达 6TB/ 秒。公司预期这款芯片将从四季度开始生产,并将在明年一季度通过合作的服务器生产商供货。

在 AMD 的定位中,公司的 AI 加速器在 AI 模型创建内容或进行推理的用例中更具有竞争力,而不是通过处理海量数据训练模型。部分原因在于 AMD 在芯片上堆砌了更多的高带宽内存,使其能够比一些英伟达芯片表现更好。横向比较,英伟达给最新款 B200 芯片配置了 192GB 的 HBM3e 内存,也就是两颗 B100 各连接 4 个 24GB 内存芯片,不过内存带宽倒是能达到 8TB/ 秒。

AMD 掌门苏姿丰在发布会上强调:"你们能看到的是,MI325 在运行 Llama 3.1 时,能提供比英伟达 H200 高出多达 40% 的性能。"

根据官方文件,与 H200 相比,具有参数优势的 MI325 能够提供 1.3 倍的峰值理论 FP16(16 位浮点数)和 FP8 计算性能。

相较于 MI325X,AMD 也给市场画了一个大大的 " 饼 " ——公司将在明年推出 CDNA 4 架构的 MI350 系列 GPU,除了 HBM3e 内存规模进一步升至 288GB,以及工艺制程提升至 3nm 外,性能的提升也非常惊人。例如 FP16 和 FP8 性能比起刚发布的 MI325 高出 80%。公司更是表示,与 CDNA 3 的加速器相比,MI350 系列的推理性能将提高 35 倍

AMD 预期搭载 MI355X GPU 的平台将在明年下半年上市,与 MI325 正面迎战英伟达的 BlackWell 架构产品。

苏姿丰也在周四表示,数据中心人工智能加速器的市场将在 2028 年增长至 5000 亿美元,而这个数字在 2023 年时为 450 亿美元。在此前的表态中,她曾预期这个市场能够在 2027 年达到 4000 亿美元。

值得一提的是,多数行业分析均认为,在 AI 芯片市场中英伟达的占有率能够达到 90% 以上,这也是芯片龙头能够享有 75% 毛利率的原因。基于同样的考量,双方的股价表现差异也很大——今天开完发布会后,AMD(红线)的年内涨幅收窄回了 20% 以内,而英伟达(绿线)的涨幅接近 180%。

(AMD、英伟达股价年内涨幅,来源:TradingView)

顺手 " 拳打英特尔 "

对于 AMD 而言,目前数据中心业务的大头依然来自于 CPU 销售。在实际用例中,GPU 也需要与 CPU 搭配在一起才能使用。

在 6 月季度的财报中,AMD 的数据中心销售额同比翻番达到 28 亿美元,但其中 AI 芯片只占 10 亿美元。公司表示,在数据中心 CPU 市场的占有率约 34%,低于英特尔的 Xeon 系列芯片。

身为数据中心 CPU 领域的挑战者,AMD 也在周四发布第五代 EPYC" 图灵 " 系列服务器 CPU,规格从 8 核的 9015(527 美元)一直到最高 192 核的 9965(14831 美元)。AMD 强调,EPYC 9965 的多项性能表现比英特尔的旗舰服务器 CPU Xeon 8592+" 强上数倍 "。

(苏姿丰展示 " 图灵 " 系列服务器 CPU,来源:AMD)

在发布会上,AMD 请来 Meta 的基础设施和工程副总裁 Kevin Salvadore 站台,后者透露公司已经部署超过 150 万个 EPYC CPU。

评论
大家都在看