
这是铅笔道与长城战略咨询的联合专栏,发现新时代的独角兽。长城战略咨询是中国本土头部新经济咨询机构。
作者丨铅笔道 松格
编辑丨铅笔道 邹蔚
图片丨知跃空间智能、ChatGPT
全世界的机器人都被一个小问题难倒了,束手无策。
在工厂里,机器人可以精准识别零件型号,规划复杂路径,但它仍然很难应对一个小小的意外。比如,被轻轻碰一下后,能不能立刻稳住动作。
这些在人类看来几乎不需要 " 思考 " 的动作,却是机器最难跨越的门槛。
几十年前,机器人学家汉斯 · 莫拉维克就提出过这一悖论:
人类觉得最本能的感知与运动能力,对机器而言反而最困难;而人类认为最困难的认知任务,却很容易被机器掌握。
莫拉维克悖论就像一堵墙,挡在机器人前进的路上。
在工厂里,机器人被碰一下并不常见,却很要命。突然的外力干扰,很难提前收集成数据,也很难反复训练,靠大模型的延迟推理根本无法应对。但一旦发生,就决定了机器人能不能真正用起来。
一次次失败之后,越来越多的工程师意识到:问题也许不在于数据不够多、算力不够强,而是机器少了一种东西——人类在不经思考时,就能完成的本能反应。
在一线跟机器人打交道多年,孙舶寒也时常感叹," 莫拉维克之墙 " 太难攻破。
孙舶寒,90 后,本科毕业于北京大学元培实验班(物理方向),后赴哥伦比亚大学攻读机械工程。回国后,他先后参与 AR/VR 场景下的系统研发、四足机器人运动系统开发,并在小米领导了第一代机器狗 CyberDog 的算法工作。
2023 年底,孙舶寒与校友钱琳瑞回北大听一门计算神经科学课程,冒出了大胆的想法,如果机器人要在真实物理世界中具备更强的应变能力,或许需要在系统底层,引入对生物神经机制的工程话建模。也许能找到绕开 " 莫拉维克之墙 " 的路。
没错,在运动与感知上,他要让机器人更像生物:靠本能,而不是更会思考。
基于这一判断,孙舶寒跟钱琳瑞共同创办了具身智能企业知跃空间——做的不是 " 更大的模型 ",而是更像生物神经系统的结构。他们和北大人工智能研究院杜凯教授团队一起,共同研发了基于类脑启发的核心算法及系统 Omni-Brain,关注的重点从如何复杂推理转向生物 " 小脑层级 " 的能力——反应快、反馈直接、动作稳定。
这条路听起来不主流,却在工厂里先跑通了。在实际生产中,知跃空间的机器人能稳定完成毫米级精度的料盘套杆操作,解决了人工容易疲劳、传统自动化难以覆盖的问题。一次现场演示,就促成了合作。
现在,知跃空间的技术已经用在仓储物流等场景里,主要收入来自为机器人提供的大小脑智能操作系统。2025 年 8 月,知跃空间完成数千万元人民币天使轮融资,投资方锡创投、盛景网联、锡惠国创、本源基金。
孙舶寒和团队希望用类脑技术的工程实践来探索人工智能另一种可能性:除了数据和算力扩张,还存在一条 " 向自然学习 " 的路径。
声明:访谈对象已确认文章信息真实无误,铅笔道愿为其内容做信任背书。以下是孙舶寒口述。
- 01 -
从神经科学中,寻找工程答案
搞了很多年机器人,有些问题看着容易,但就是解决不了。
比如,机器服务员端着托盘送水,突然有人蹭了它一下,有点站不稳,水就洒了。人只要稍微平衡一下,啥事没有。
大模型火了之后,我以为能遇到救星。
2023 年初,我第一时间对各种大模型做了大量尝试,包括语言模型、多模态模型,以及将图像和视频数据引入机器人训练的相关工作。但对机器人动作和感知提升作用不大。
大模型做的事情,其实是从海量数据里找规律。它见过足够多的例子,知道在 " 这种情况下 ",下一步大概率该怎么接。但这并不等于它真正理解了世界,它距离真正意义上的通用智能仍有明显差距。
大模型对 AI 带给行业的变化,是革命性的,但机器人行业容易被乐观蒙蔽,从而觉得莫拉维克悖论是不是快被推翻了?
其实还早。当前主流路径通过不断堆叠数据与算力,但仅靠数据和算力,是否足以解决机器人在真实世界中的感知与行动问题,我很怀疑。

机器人思考能力很强,却难以精细完成一些基础动作
在机器人领域,许多关键场景都像端盘子被蹭了,属于低频但高风险的 " 临界事件 ",在数据采集中极难覆盖,但一旦发生,如果无法及时响应,后果可能十分严重。
2023 年底,我跟搭档钱琳瑞回北大听了一门课,突然有灵感。
当时,北京大学杜凯教授开了一门计算神经科学前沿课程,涵盖了动物昆虫乃至人脑的神经系统建模研究进展。
我想到,机器人智能缺失的那一块,很可能并不在于 " 模型规模不够大、算力不够强 ",而在于底层结构本身缺乏对生物智能机制的建模。
我们跟杜凯教授交流后形成共识:如果这一方向长期无人系统性推进,那么不如我们来将其工程化。
我跟钱瑞琳一起创办了知跃空间。我专业是物理、机器人,她在北大学的是数学和心理学。

知跃空间联合创始人孙舶寒
美国有一家类脑公司 Liquid AI,我们参考了它的技术路线:尝试通过对精细神经元进行抽象建模,构建新的人工智能系统。但它也有个问题,就是机器人精细操作场景中,神经结构过度简化。
我们跟杜凯教授合作,基于更接近生物神经系统的建模方式,对模型结构重构,并逐步形成一种叫 Omni-Brain 的类脑模型。
大模型是在 " 记住世界 ",Omni-Brain 是在 " 使用世界 "。
目前,Omni-Brain 主要在做一件事:先把 " 底层控制 " 做好。它对标的是生物的 " 小脑 " ——不需要思考,就能在受到外界干扰时迅速做出动作反应。至于感知、理解、记忆、逻辑推理这些更高级的能力,暂时还不在这一阶段,留到后面再谈。
还是这个例子:机器人端着托盘送水。
如果它被人不小心碰了一下,基于大模型的系统通常要走一整套流程。先看一眼,确认是不是出问题了;再把数据传回中枢;最后算完结果,下发控制指令。
这一圈下来,往往是几十甚至上百毫秒。等机器人反应过来,水已经洒了。
人类不是这样。托盘刚一失衡,手已经动了。先稳住,再说别的。这一步主要由小脑完成,大脑甚至还没来得及产生清晰意识。
这种反应之所以快,是因为神经系统对 " 平衡被打破 " 特别敏感。一旦稳态受扰,就会立刻发出强烈信号,直接驱动动作。
Omni-Brain 想做的,正是把这一套机制搬进机器里。它不是先 " 想明白发生了什么 ",而是先让系统 " 感觉到不对劲 "。一旦触觉或平衡状态出现异常,系统内部会立刻产生强烈信号。不需要复杂推理,也不等大模型下结论,就能直接触发动作反馈。
这种能力更像一种写在基因里的本能,源自生物在数千万年进化中形成的反应机制。在需要和真实物理世界频繁打交道的场景中,这一点尤为关键。
从根本上说,人类的感觉系统和机器人并不一样。
这种差异,首先来自硬件本身。以视觉为例。人眼的视场范围、分辨率,以及对明暗和运动的动态调节能力,目前还没有任何一种工业级摄像头能够完整复现。而在视觉之外,差距只会更大。触觉、温度、压力等感受,对机器人来说依然非常粗糙。这也是机器人领域长期面对的现实约束:机器人 " 感知世界 " 的入口,本身就远不如人类丰富,也不如人类精细。
但问题并不只在硬件上。人类的优势,还来自另一层能力。在日常生活中,我们会在不自觉中接收大量信息。几秒钟前看到的物体位置,身后传来的脚步声,环境里细微的变化,都会被悄悄记录下来。它们不会一条条浮现在意识里,却会被整合成一种整体的空间感。
人知道自己 " 身处何处 ",却说不清自己是怎么知道的。这种能力,并不是实时推理的结果。
它更像是一种长期演化形成的内在结构。相比之下,当前主流的大模型系统还很初级。
机器人想要做到像人一样的感知与即时反应,几乎不现实。如果要走得通,只能换一条路。不是继续模仿人类的高层智能,而是回到更低阶的生命形态。
- 02 -
机器人 " 皮实 " 的秘密
那怎么让机器人更像生物?
我们的做法,是先把 " 时间 " 这件事补回来。
在机器人身上,时间不是背景参数,而是核心变量。
动作先后怎么排,反馈要不要等,延迟会不会累积,系统能不能长期稳定运行,都由时间决定。
生物之所以 " 皮实 ",正是因为它们的感知、动作和反馈,天生就被时间紧密地绑定在一起。
大家目前一直喊着 " 数据荒 " 的问题,我们理解本质不仅仅是数据量,实际还需要一套能让机器人自己生成数据的 " 生产系统 ",单纯依靠人工遥操作、动捕等方式提升数据量,成本会指数级上升,而如果能在模型底层引入对物理世界的先验理解——例如物体如何受力、如何移动——就能大幅降低训练所需的数据量,同时辅佐以高效的 " 数据生产系统 ",那么就可以率先在某些场景中跑起来,产品一旦落入市场,数据和模型自然可以更高效的迭代。
就像早期的互联网数据一样,是边用边产生的。
因此,我们干脆从底层重来,重构了一整套贯通数据采集、仿真、训练到部署的系统。
当然,这只是我们一开始的设想。后来在反复测试后发现,目前这套类脑模型在仿真和真机环境中,最具优势的果然是系统级的稳定(" 皮实 ")——动作非线性性极强、环境变化性很高的任务,系统也能照常工作。
我们去寻找那些真正没有数据、但是环境噪声大、场景变化度高,客户又愿意付费的场景。水下特种机器人成为最早一批潜在客户。
- 03 -
让生物原理与 AI 互补
这条 " 无需大数据、无需大算力、预训练即可使用 " 的路线,从一开始就伴随着大量质疑。
行业内外都有:" 国内没人这么做 "" 国外有成熟案例吗 "" 是不是因为没条件做大模型,才换了一条路 "。
真正的支持,反而主要来自学术界。一些清北背景、从事相关研究的教授和海外的一些科学家告诉他们:现在真正缺的是把类脑神经理论推向应用的工程力量。如果有人愿意去做,他们愿意持续提供支持。
与通过海量数据反复拟合的 AI 不同,直接借用生物进化过程中已经验证过的 " 结构 ":神经元的连接方式、脉冲传播机制,本身就是一种高度压缩的知识载体。
这些结构并不是被 " 复制 " 到机器中,而是通过数学建模,被运行在 CPU 或 GPU 上。即便在通用计算硬件上,这种方式在同等规模下的能耗,也明显低于传统模型。
这更像是一种 " 换了一种方式做预训练 " ——不是训练参数,而是引入结构本身。
做起来后,才知道困难重重:整个行业的起步带来的具大 " 方向性 " 的挑战、如何评估一个新系统的稳定性、如何设计更符合这套模型的数据结构、怎么让更多的人才加入进来、怎么把一个宏伟的计划拆解成团队可以执行的小目标,等等,太多了。
当然,我们也会刻意选择与主流深度学习模型在同一仿真环境中作对比,让更多的人对此事有直观的理解。在一些基础操作任务中,类脑模型已经展现出稳定优势。接下来,把模型直接部署到机械臂上,尝试最朴素的任务:抓起一个杯子。
当杯子被稳稳抓起、放下时,那一刻心里一块大石头落了地,这是创业之后最美好的一天。
本文仅为口述者独立观点,不代表铅笔道立场,不构成任何投资建议。


登录后才可以发布评论哦
打开小程序可以发布评论哦