3 月 12 日,存储行业顶尖峰会 "MemoryS 2025" 在深圳召开,全球闪存巨头及相关企业高管陆续上台发言。然而这些高管提到最多的词汇可能不是 NAND、LPDDR、UFS 等闪存行业常用词,而是 AI、大模型、DeepSeek。
本场存储峰会以「存储格局 · 价值重塑」为主题,嘉宾的演讲也主要围绕行业格局的变动。大会主办方 CFM 闪存市场总经理邰炜先生直言,如果今年这场大会一定要有一个口号,那应该是「谢谢大家,谢谢 AI」。
(图源:雷科技摄制)
AI 并非新事物,但 DeepSeek-R1 的横空出世,却改变了原有规则。过去 AI 给人的印象是需要庞大的算力规模,用于大模型的训练和推理任务。DeepSeek 所采用的 MoE 架构和稀疏算力机制,对算力的要求大幅降低,再加上 MIT 开源协议,让 AI 真正进入了全民普惠时代。忆恒创源 CEO 张泰乐认为,2025 年全民 AI 将得以实现。而在结束对大规模算力依赖的情况下,闪存成了 AI 普及的关键。
AI 赋能万物,闪存与算力成大模型唯二基石
闪存的三大应用场景分别为服务器、PC、手机,智能化程度不断提升的汽车,正在向成为第四大应用场景狂奔,手机与 PC 行业日渐饱和,却成了阻碍闪存市场规模扩大的难题。AI 时代的到来将打破手机与 PC 领域闪存市场饱和的局面,给予闪存行业新的发展推动力。
CFM 闪存市场数据显示,2024 年存储应用市场中,服务器的份额从 2023 年的 16% 提升至 30%,与手机只差 1 个百分点,2025 年很有机会超越手机。服务器行业对于闪存需求量大增,原因便在于 AI。
(图源:《2024-2025 年全球存储市场趋势白皮书》)
AI 大模型的训练需要大量数据,这些数据对于企业的存力提出了极高要求,因而企业需要采购大量存储设备。之前一些企业的服务器会选择价格低廉的企业级机械硬盘存储数据,但 AI 大模型对于数据读写速度、带宽、功耗也提出了较高要求。
大普微电子董事长杨亚飞公布的测试数据显示,在数据收集、数据处理、模型训练、模型验证、模型恢复、模型推理等 AI 工作流程中,机械硬盘和固态硬盘差距至少为十几倍。机械硬盘已难以在 AI 时代承担数据存储、调用的重任,闪存技术是 AI 企业的必然选择。
(图源:雷科技摄制)
AI 技术从云侧向端侧转移,也利好闪存行业。云侧 AI 大模型的问题在于数据需要上传至云端,注重数据安全的用户可能担心隐私信息暴露或丢失,DeepSeek 则给出了不同参数量的版本,且不依赖 GPU 运算,极为适合本地部署到手机或 PC。
IDC 预测,2025 年 AI 智能手机销量将同比增长 73.1%,并推动 LPDDR5X 容量相较 2024 年旗舰机型增长 50%-100%。Gartner 则预测,2025 年 AI PC 将占 PC 出货总量的 43%,并且比当前普通 PC 高出 80% 以上 DRAM 容量。
汽车领域,造车新势力巨头小鹏汽车嵌入式平台高级总监、整车电子电气首席架构师段志飞上台发言,阐述了 AI 与汽车融合的情况,以及闪存的重要性,并表示 AI 汽车需要高带宽、低延迟、大容量的存储产品。
AI 已然成为闪存行业的福星,在 AI 大模型超高需求量的加持下,2024 年全球 NAND 市场规模已达 700 亿美元,容量达 8330 亿 GB,DRAM 市场规模达 970 亿美元,容量达 2500 亿 Gb。
未来 AI 行业对于存储设备的需求量还会不断提高,闪存市场也将借助 AI 的东风迅猛发展。不过机遇总是与挑战并存,AI 大模型的训练和推理对于闪存的读写速率、带宽、功耗,以及成本较为敏感,自然也对闪存企业提出了更高要求。全方位满足 AI 行业对于闪存产品要求的企业,方能争取到更多市场份额。
闪存行业内卷加速,机遇与挑战一样多
大会上,邰炜先生率先表示,因大容量存储的需求,QLC 时代提前到来,2024 年甚至出现了供不应求的情况,32TB 大容量企业级 SSD 已经大规模量产,64TB 和 128TB 容量的 QLC 企业级 SSD 需求量也在增加,预计 2025 年 QLC SSD 将有 45% 的产能应用在服务器上。
在机械硬盘无法满足 AI 大模型训练和推理任务的今天,企业级 SSD 已经成为 AI 公司的首选。相较于消费级市场常见的 TLC 颗粒,QLC 颗粒成本更低。铠侠株式会社首席技术执行官 柳茂知称,QLC SSD 是 AI 行业最好的选择,尽管从 SLC 到 MLC,再到 TLC,最终到 QLC,SSD 的性能一直在下降,但随着技术的演变,2025 年 QLC SSD 的速度已经比 2017 年的 TLC SSD 快很多了。
(图源:雷科技摄制)
如今 QLC SSD 的顺序读写速度可达 7000MB/s 左右,性能十分强大,能够满足 AI 大模型数据存储和调用的要求。
为进一步降低成本,企业还在不断尝试更高堆叠层数,此前三星、SK 海力士等企业,均公布了 300+ 堆叠层数 NAND 产品。
预计 2025 年,NAND 将全面进入 300+ 层数时代。一些企业还爆出了 400+ 层数的 NAND,未来或将进一步提升 QLC SSD 的容量密度并降低成本,为 AI 行业的发展提供基础支持。
除了颗粒,闪存企业还在主控方面投入巨资研发技术。群联电子执行长潘健成透露,2024 年群联投入了 30 亿元研发经费。 联芸科技董事长方小玲则表示,虽然每一代闪存都会降低功耗,但功耗的降低是在相同速率情况下,降低的功耗远远跟不上闪存提高的速率,联芸科技依靠 Agile ECC+QLC 算法,构建了高能效主控芯片开发平台,从而开发出了 MAP1802 和 MAP1806 两款具备高性能、大容量、低功耗特性的主控芯片。
(图源:雷科技摄制)
坚持技术自研的江波龙,也在本次技术峰会上介绍了嵌入式存储和移动存储自研主控。搭载江波龙自研主控的满血版 UFS 4.1 顺序写入速度可达 4200MB/s,顺序读取速度可达 4350MB/s,领先其他同类产品。
搭载江波龙自研 WM6000 主控的 eMMC Ultra,突破了 eMMC 5.1 性能瓶颈,顺序读取速度为 464MB/s,顺序写入速度为 355MB/s,远超普通 eMMC 5.1,随机读写速度甚至与 UFS 2.2 不相上下。eMMC Ultra 虽不如 UFS 4.1,但超低的成本能够为入门级智能手机、平板电脑,以及汽车等产品提供价格更低的存储选择。
(图源:雷科技摄制)
作为存储设备的核心,主控承担着大脑的作用。群联电子潘健成虽表示主控赚不到钱,但国内外企业并未松懈主控技术的研发工作。江波龙、联芸科技、慧荣科技等大多数参会企业,都强调了主控的重要性,未来也将持续投入资金研发主控技术和芯片,提高存储设备的读写速度、降低功耗。
AI 行业造就的机遇,将带动闪存行业蓬勃发展,随之而来的挑战,则导致闪存企业不能「躺平」,仍要坚持技术研发,满足 AI 大模型对于闪存传输速率、功耗、成本等方面的要求。
一边降本一边提速,闪存行业拥抱 AI 巨浪
AI 时代的到来,对存储行业的格局造成了不小影响,拥有价格优势却输在传输速率的机械硬盘,因无法适应 AI 时代的要求,或将慢慢被市场淘汰,兼顾成本与传输速率的 QLC SSD 顺利成为市场新宠儿。
闪存企业还在加速推动 300+ 堆叠层数的 NAND 产品大规模量产,并研发更高堆叠层数的产品,降低闪存的成本与价格。主控技术的研发与升级,则将提高闪存芯片的能效和速率。
DeepSeek-R1 模型采用 MIT 开源协议和不依赖 GPU 的特性,令手机、笔记本电脑、汽车都有了大规模部署端侧 AI 的可能。
固然存储应用市场中,服务器的份额有望在 2025 年超越手机,但手机和 PC 行业依然保有不少份额。因此,闪存企业不能只注重 QLC SSD,LPDDR5X、UFS 4.1、eMMC 5.1 等更适合移动端的存储选择,也有升级读写速率和能效的必要。
随着 AI 大模型能力的提升,训练更强模型所需的数据量也会不断提高,闪存将成为与 GPU 同样重要的 AI 行业发展基石。所幸,GPU 行业仅有三大巨头,闪存行业国内外巨头众多,企业之间的竞争将加快闪存产品降本、提速的速度,成为 AI 行业最可靠的依仗。
(封面图:江波龙官网)
登录后才可以发布评论哦
打开小程序可以发布评论哦