驱动之家 21小时前
联发科:内存是XPU瓶颈之一 目前占据50%成本
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 2 月 25 日消息,据媒体报道,随着联发科正式加入谷歌第八代 TPU 项目,其在人工智能生态系统中的角色正不断强化,进一步巩固自身在定制化芯片解决方案领域的技术积累与市场影响力。

联发科首席执行官蔡力行日前在一场公开活动中,系统阐述了 XPU 开发所面临的四大技术挑战,涵盖计算能力、内存瓶颈、互联效率以及先进封装技术。

其中,内存已成为影响系统性能和成本结构的关键变量,目前在 XPU 物料清单中的占比已高达 50%,突显出内存对整体方案成本与效能的决定性作用。

蔡力行指出,尽管 AI 训练任务仍主要依赖 HBM(高带宽内存),但随着市场需求逐步向定制化和高效能推理演进,AI 推理正成为下一个重要增长引擎。

在这一趋势下,DDR DRAM 凭借更高的密度和成本效益,预计将在推理场景中获得更广泛应用,而 SRAM 则将保留于特定选择性场景。这也带动了 SK 海力士和三星等内存巨头加速相关技术布局。

其中,SK 海力士围绕 "AI-N" 系列产品线展开多维布局,以 "AI-N P"(性能)、"AI-N B"(带宽)、"AI-N D"(密度)为三大技术方向,分别对应与英伟达合作的 SLC NAND 闪存方案、高带宽闪存(HBF),以及面向大容量低功耗需求的数据中心解决方案,力求在 AI 推理负载不断增长的背景下提供差异化技术支撑。

三星方面则延续其在内存内计算领域的布局。早在 2021 年,三星便推出业界首款集成 AI 处理能力的 HBM —— HBM-PIM,提供最高 1.2 TFLOPS 的嵌入式算力,使内存芯片本身可执行部分 CPU、GPU、ASIC 或 FPGA 的任务。近期有消息指出,三星正重新聚焦 PIM 技术研发,意图在未来的 AI 应用中推动其逐步取代传统 HBM 架构。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

联发科 ai 三星 海力士 芯片
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论