驱动之家 08-10
华为即将发布AI推理领域突破性成果:或能降低对HBM内存依赖
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 8 月 10 日消息,据国内媒体报道,华为将于 8 月 12 日在 2025 金融 AI 推理应用落地与发展论坛上,发布 AI 推理领域的突破性技术成果。

据透露,这项成果或能降低中国 AI 推理对 HBM(高带宽内存)技术的依赖,提升国内 AI 大模型推理性能,完善中国 AI 推理生态的关键部分。

HBM(High Bandwidth Memory,高带宽内存)是一种基于 3D 堆叠技术的先进 DRAM 解决方案,多层 DRAM 芯片垂直集成,显著提升数据传输效率。具有超高带宽与低延迟、高容量密度、高能效比等优势。

AI 推理需频繁调用海量模型参数(如千亿级权重)和实时输入数据。HBM 的高带宽和大容量允许 GPU 直接访问完整模型,可避免传统 DDR 内存因带宽不足导致的算力闲置。对于千亿参数以上的大模型,HBM 可显著提升响应速度。

当下,HBM 已成为高端 AI 芯片的标配,训练侧渗透率接近 100%,推理侧随模型复杂化加速普及。

然而,其产能紧张和美国出口限制倒逼国内厂商探索 Chiplet 封装、低参数模型优化等替代方案。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 华为 渗透率 美国 芯片
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论