36氪 9小时前
后摩智能创始人兼CEO吴强:端边通用AI算力瓶颈迎来破局点,存算一体将重构产业生态
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

2025 年的商业世界正站在新旧转换的十字路口。在商业叙事重构、科技浪潮席卷的当下,WISE2025 商业之王大会以 " 风景这边独好 " 为基调,试图在不确定中锚定中国商业的确定性的未来。我们在此记录这场思想盛宴的开篇,捕捉那些在变局中依然坚定前行的声音。

11 月 27-28 日,被誉为 " 年度科技与商业风向标 " 的 36 氪 WISE2025 商业之王大会,在北京 798 艺术区传导空间落地。

今年的 WISE 不再是一场传统意义上的行业峰会,而是一次以 " 科技爽文短剧 " 为载体的沉浸式体验。从 AI 重塑硬件边界,到具身智能叩响真实世界的大门;从出海浪潮中的品牌全球化,到传统行业装上 " 赛博义肢 " ——我们还原的不仅是趋势,更是在捕捉在无数次商业实践中磨炼出的真知。

我们将在接下来的内容中,逐帧拆解这些 " 爽剧 " 背后的真实逻辑,一起看尽 2025 年商业的 " 风景独好 "。

" 未来五到十年,端边侧计算将从以逻辑控制为主,转向以 AI 为主。我们正站在端边侧 AI 爆发的前夜。" 在大会上,后摩智能创始人兼 CEO 吴强这样判断。

他认为,端边 AI 计算正在经历类似数据中心过去十年的 " 范式迁移 " ——从控制优先转向数据优先,而推动这一变革的核心动力,正是大模型落地带来的算力重构需求。

吴强指出,当前端边计算仍以 CPU 及控制为主,AI 仅是配角;但随着感知、理解、决策类任务逐渐成为端侧主流,通用 AI 芯片将迎来爆发。行业分析机构 STL Partners 预测,端边计算的市场规模在未来五至十年有望达到四千亿美元量级。

但是,端边通用 AI 芯片仍面临严峻的挑战:传统架构面临 " 存储墙 " 与 " 功耗墙 " 的制约,约 90% 功耗耗在数据搬运上,而非计算本身。

针对这一痛点,后摩智能选择了 " 存算一体 " 技术路径,提升计算效率效,并于今年 7 月推出首款针对端边大模型的芯片 M50。该芯片以 10W 功耗提供 100-160T 算力,可支持百亿级参数大模型在端侧运行,目前已与 AIPC、智能办公、陪伴机器人、5G+AI 等场景的客户展开合作。

在吴强看来,除了现有场景,具身智能将是下一代端边 AI 的关键赛道。" 具身智能机器人需要一颗实时、强思维、可交互的‘最强大脑’,而这正是存算一体架构的优势所在。" 他表示,公司正基于下一代 DRAM PM 存算一体芯片,与机器人算法及方案厂商共同推进 " 最强大脑 " 式的芯片解决方案。

随着 M50 明年起逐步落地,以及信创 PC、智能办公、陪伴机器人等场景的持续拓展,后摩智能正与产业链上下游共建端边 AI 生态。

吴强强调,端计算不仅是算力的竞争,更是生态的竞争—— " 我们希望与合作伙伴一起,在端侧实现 AI 的普及与普惠。"

以下为后摩智能创始人兼 CEO 吴强的演讲实录,经编辑:

大家好,我是后摩智能的吴强。我们是一家专注于端边 AI 芯片的公司,今天想借这个机会,和大家分享我们对于端边 AI 计算的一些思考和实践。

大模型推动了 AI 进入 2.0 时代,这不仅改变了云端数据中心的计算格局,也让英伟达成为全球首家突破 5 万亿美元市值的公司。我们认为,未来几年,端边侧也将迎来巨大机遇。由于端边设备对实时性、隐私性有天然需求,再加上 AI 普惠化的发展趋势,我们相信,端边 AI 计算会逐渐崛起,成为 AI 竞争的主战场。

目前,端边计算的市场规模才刚刚起步,但我们预计在未来五到十年,它将迎来爆发式增长。例如,STL Partners 预测,这个市场的规模可能达到四千亿美元甚至更高。

今天,端边计算仍然以逻辑控制为主。那么未来五到十年,端边计算的格局会怎样?我们认为,它会从现在的逻辑控制为主,逐步转向以数据为中心的 AI 计算为主。

回顾数据中心过去十年的发展,我们可以看到类似的变迁。以前,数据中心 80% 的支出用于逻辑控制类计算,比如网页处理、数据库操作等,只有 20% 用于数据类计算。而今天,这个比例已经反转:80% 用于 AI 计算,20% 用于逻辑控制。这种计算范式的迁移,正是由应用场景的演变驱动的。

那么,在端边侧,我们是否也能预见同样的变化?目前,端侧的计算仍以 CPU 为主,AI 更多是辅助角色。但我们预计,未来五到十年,端边的任务将更多转向感知、理解、决策等,走向以数据和 AI 为主的方向。这是我们做出的第一个判断。

具体看端边 AI 计算,它可以分为垂类和通用两大类。垂类场景如手机、智能驾驶等,由于场景明确、体量大,已经受到广泛关注,并且在算法与芯片架构上做了大量软硬件协同优化。

而另一类是端边通用 AI 计算,它覆盖成千上万种不同场景,每个场景规模不大,但总和非常可观。这类计算需求多样,既要保证效率,又要兼顾通用性,目前才刚刚受到重视,也是我们接下来想重点谈的。

那么,端边通用 AI 芯片的特点和挑战是什么?首先,它处于端边侧,成本敏感、功耗敏感,带宽也容易成为瓶颈,特别是在大模型时代。其次,作为通用芯片,它要适配各行各业、众多场景,需要高通用性才能满足所有需求。我们必须在底层架构上,在不损失通用性的前提下,提升能效,满足端边侧的需求。这是行业过去几年一直在探索的方向。

要解决这个问题,首先要看清当前架构的瓶颈。传统架构灵活性好,但如今遇到了 " 存储墙 " 和 " 功耗墙 " ——数据搬运成为主要瓶颈,90% 的功耗可能都花在数据搬运上,而不是计算本身。因此,要想提升端边通用 AI 的效率,就必须从根本上突破这两大瓶颈。

我们认为,存算一体是突破存储墙和功耗墙的最佳路径之一。它本质上是通过拉近数据与计算的距离,来减少数据搬运,从而提升能效。存算一体有多种实现方式,比如基于 SRAM 和 DRAM。SRAM 更适合提升计算密度和能效,DRAM 则更擅长解决带宽问题。

后摩智能从成立之初,就专注于存算一体的大算力芯片研发,也是第一家将存算一体大算力从论文推向实践的企业。经过四五年的技术积累,我们已经推出了两代量产产品。今年 7 月,我们发布了最新的旗舰芯片—— M50。

M50 是我们首款专为端边大模型设计的芯片,提供约 100-160T 的算力,功耗仅 10W,能够支持从 140 亿、200 亿、300 亿直至 1200 亿参数的大模型。我们提供了多种产品形态,如 M.2 卡和 Duo M.2 卡,最小的 M.2 卡只有口香糖大小,却可以运行 140 亿甚至 300 亿参数的模型,这在端边场景中给客户带来了很大惊喜。

发布以来,我们一直在与客户推动 M50 的落地。在端侧,我们合作的场景包括智能语音设备、AIPC、陪伴机器人、AI NAS 等;在边侧,主要聚焦 AI 网关、5G+AI、计算盒子等场景。

一个好的芯片离不开好的工具链。针对 M50,我们提供了完整的工具链,支持各类已训练好的模型(包括开源模型)直接转换到硬件运行,无需重新训练。由于 M50 支持 bFP 等浮点精度,整个编译过程非常顺畅,客户可以快速完成模型适配。

从 7 月发布至今,我们与芯片上下游伙伴紧密合作,完成了与多种操作系统(包括 Windows、Linux,以及麒麟、统信等信创系统)的适配,也协同了各类主控芯片(x86、ARM 及国产 CPU)。同时,我们正与算法层、解决方案层的伙伴开展大量适配工作,预计从明年初开始,会有更多落地应用推出。我们希望与更多伙伴共建端边 AI 生态。

最后我想总结,尽管当前端边计算仍以控制和逻辑为主,但我们坚信,未来五到十年,它将转向以 AI 为主,端边通用 AI 计算也将迎来爆发。这是一个历史趋势。后摩智能愿与上下游伙伴一起,共建端边 AI 生态,推动 AI 普及与普惠,让生活更加美好。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 吴强 机器人 芯片 ceo
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论