2025 年的商业世界正站在新旧转换的十字路口。在商业叙事重构、科技浪潮席卷的当下,WISE2025 商业之王大会以 " 风景这边独好 " 为基调,试图在不确定中锚定中国商业的确定性的未来。我们在此记录这场思想盛宴的开篇,捕捉那些在变局中依然坚定前行的声音。
11 月 27-28 日,被誉为 " 年度科技与商业风向标 " 的 36 氪 WISE2025 商业之王大会,在北京 798 艺术区传导空间落地。
今年的 WISE 不再是一场传统意义上的行业峰会,而是一次以 " 科技爽文短剧 " 为载体的沉浸式体验。从 AI 重塑硬件边界,到具身智能叩响真实世界的大门;从出海浪潮中的品牌全球化,到传统行业装上 " 赛博义肢 " ——我们还原的不仅是趋势,更是在捕捉在无数次商业实践中磨炼出的真知。
我们将在接下来的内容中,逐帧拆解这些 " 爽剧 " 背后的真实逻辑,一起看尽 2025 年商业的 " 风景独好 "。
" 未来五到十年,端边侧计算将从以逻辑控制为主,转向以 AI 为主。我们正站在端边侧 AI 爆发的前夜。" 在大会上,后摩智能创始人兼 CEO 吴强这样判断。
他认为,端边 AI 计算正在经历类似数据中心过去十年的 " 范式迁移 " ——从控制优先转向数据优先,而推动这一变革的核心动力,正是大模型落地带来的算力重构需求。
吴强指出,当前端边计算仍以 CPU 及控制为主,AI 仅是配角;但随着感知、理解、决策类任务逐渐成为端侧主流,通用 AI 芯片将迎来爆发。行业分析机构 STL Partners 预测,端边计算的市场规模在未来五至十年有望达到四千亿美元量级。
但是,端边通用 AI 芯片仍面临严峻的挑战:传统架构面临 " 存储墙 " 与 " 功耗墙 " 的制约,约 90% 功耗耗在数据搬运上,而非计算本身。
针对这一痛点,后摩智能选择了 " 存算一体 " 技术路径,提升计算效率效,并于今年 7 月推出首款针对端边大模型的芯片 M50。该芯片以 10W 功耗提供 100-160T 算力,可支持百亿级参数大模型在端侧运行,目前已与 AIPC、智能办公、陪伴机器人、5G+AI 等场景的客户展开合作。
在吴强看来,除了现有场景,具身智能将是下一代端边 AI 的关键赛道。" 具身智能机器人需要一颗实时、强思维、可交互的‘最强大脑’,而这正是存算一体架构的优势所在。" 他表示,公司正基于下一代 DRAM PM 存算一体芯片,与机器人算法及方案厂商共同推进 " 最强大脑 " 式的芯片解决方案。
随着 M50 明年起逐步落地,以及信创 PC、智能办公、陪伴机器人等场景的持续拓展,后摩智能正与产业链上下游共建端边 AI 生态。
吴强强调,端计算不仅是算力的竞争,更是生态的竞争—— " 我们希望与合作伙伴一起,在端侧实现 AI 的普及与普惠。"

以下为后摩智能创始人兼 CEO 吴强的演讲实录,经编辑:
大家好,我是后摩智能的吴强。我们是一家专注于端边 AI 芯片的公司,今天想借这个机会,和大家分享我们对于端边 AI 计算的一些思考和实践。
大模型推动了 AI 进入 2.0 时代,这不仅改变了云端数据中心的计算格局,也让英伟达成为全球首家突破 5 万亿美元市值的公司。我们认为,未来几年,端边侧也将迎来巨大机遇。由于端边设备对实时性、隐私性有天然需求,再加上 AI 普惠化的发展趋势,我们相信,端边 AI 计算会逐渐崛起,成为 AI 竞争的主战场。

目前,端边计算的市场规模才刚刚起步,但我们预计在未来五到十年,它将迎来爆发式增长。例如,STL Partners 预测,这个市场的规模可能达到四千亿美元甚至更高。
今天,端边计算仍然以逻辑控制为主。那么未来五到十年,端边计算的格局会怎样?我们认为,它会从现在的逻辑控制为主,逐步转向以数据为中心的 AI 计算为主。
回顾数据中心过去十年的发展,我们可以看到类似的变迁。以前,数据中心 80% 的支出用于逻辑控制类计算,比如网页处理、数据库操作等,只有 20% 用于数据类计算。而今天,这个比例已经反转:80% 用于 AI 计算,20% 用于逻辑控制。这种计算范式的迁移,正是由应用场景的演变驱动的。

那么,在端边侧,我们是否也能预见同样的变化?目前,端侧的计算仍以 CPU 为主,AI 更多是辅助角色。但我们预计,未来五到十年,端边的任务将更多转向感知、理解、决策等,走向以数据和 AI 为主的方向。这是我们做出的第一个判断。
具体看端边 AI 计算,它可以分为垂类和通用两大类。垂类场景如手机、智能驾驶等,由于场景明确、体量大,已经受到广泛关注,并且在算法与芯片架构上做了大量软硬件协同优化。
而另一类是端边通用 AI 计算,它覆盖成千上万种不同场景,每个场景规模不大,但总和非常可观。这类计算需求多样,既要保证效率,又要兼顾通用性,目前才刚刚受到重视,也是我们接下来想重点谈的。
那么,端边通用 AI 芯片的特点和挑战是什么?首先,它处于端边侧,成本敏感、功耗敏感,带宽也容易成为瓶颈,特别是在大模型时代。其次,作为通用芯片,它要适配各行各业、众多场景,需要高通用性才能满足所有需求。我们必须在底层架构上,在不损失通用性的前提下,提升能效,满足端边侧的需求。这是行业过去几年一直在探索的方向。
要解决这个问题,首先要看清当前架构的瓶颈。传统架构灵活性好,但如今遇到了 " 存储墙 " 和 " 功耗墙 " ——数据搬运成为主要瓶颈,90% 的功耗可能都花在数据搬运上,而不是计算本身。因此,要想提升端边通用 AI 的效率,就必须从根本上突破这两大瓶颈。
我们认为,存算一体是突破存储墙和功耗墙的最佳路径之一。它本质上是通过拉近数据与计算的距离,来减少数据搬运,从而提升能效。存算一体有多种实现方式,比如基于 SRAM 和 DRAM。SRAM 更适合提升计算密度和能效,DRAM 则更擅长解决带宽问题。

后摩智能从成立之初,就专注于存算一体的大算力芯片研发,也是第一家将存算一体大算力从论文推向实践的企业。经过四五年的技术积累,我们已经推出了两代量产产品。今年 7 月,我们发布了最新的旗舰芯片—— M50。
M50 是我们首款专为端边大模型设计的芯片,提供约 100-160T 的算力,功耗仅 10W,能够支持从 140 亿、200 亿、300 亿直至 1200 亿参数的大模型。我们提供了多种产品形态,如 M.2 卡和 Duo M.2 卡,最小的 M.2 卡只有口香糖大小,却可以运行 140 亿甚至 300 亿参数的模型,这在端边场景中给客户带来了很大惊喜。
发布以来,我们一直在与客户推动 M50 的落地。在端侧,我们合作的场景包括智能语音设备、AIPC、陪伴机器人、AI NAS 等;在边侧,主要聚焦 AI 网关、5G+AI、计算盒子等场景。
一个好的芯片离不开好的工具链。针对 M50,我们提供了完整的工具链,支持各类已训练好的模型(包括开源模型)直接转换到硬件运行,无需重新训练。由于 M50 支持 bFP 等浮点精度,整个编译过程非常顺畅,客户可以快速完成模型适配。
从 7 月发布至今,我们与芯片上下游伙伴紧密合作,完成了与多种操作系统(包括 Windows、Linux,以及麒麟、统信等信创系统)的适配,也协同了各类主控芯片(x86、ARM 及国产 CPU)。同时,我们正与算法层、解决方案层的伙伴开展大量适配工作,预计从明年初开始,会有更多落地应用推出。我们希望与更多伙伴共建端边 AI 生态。
最后我想总结,尽管当前端边计算仍以控制和逻辑为主,但我们坚信,未来五到十年,它将转向以 AI 为主,端边通用 AI 计算也将迎来爆发。这是一个历史趋势。后摩智能愿与上下游伙伴一起,共建端边 AI 生态,推动 AI 普及与普惠,让生活更加美好。


登录后才可以发布评论哦
打开小程序可以发布评论哦