文本生成、聊天问答、Agent 办公助手、具身智能机器人 ...... 当过去 20 年的互联网发展完成了 AI 的数据基础,突然飞速进化的 AI 不断冲击着我们,也带来了人与组织的关系变革。
但 AI 的普及应用速度其实比想象的要慢,大多数企业对 AI 的理解仍停留在 " 工具层 ":用 AI 写文生图、整理会议纪要、辅助写代码。其实,AI 智能体带来的真正变化,不只是 " 帮人更快完成一项工作 ",更不仅仅是能够 " 替代人完成工作 "......
上周六,混沌邀请到明略科技创始人吴明辉,分享了他对 AI 时代的组织进化与个体出路的系统性前沿判断:
· 企业不应该引入 AI 来替代员工,而是发现并培养人的无可替代的价值。当 AI 智能体开始拥有持续学习的能力,一线员工将从 " 独立贡献者 " 升级到可以真正用好 AI 的 " 新型管理者 "。
· AI 原生组织的指数级增长,关键不在于人与智能体的协作、人与人的协作,更在于智能体与智能体之间的协作。通过多智能体协作系统可以让工作过程变得公开透明,解决 AI 的可信问题。
· 当智能体成为组织的新成员,企业需要用理念来重新设计自己的组织、业务和领导力。当整个行业都在用同一套基础模型,让输出结果产生不一致的,是企业创始人和员工的独特品味和数据积累。
......
需要注意的是,作为一名北大数学系专业出身的技术型创业者,吴明辉不是只谈技术发展的人。在这期课程分享中,他同时带着一线实践和哲学思辨,既拆解了 AI 智能体的技术逻辑和底层架构,结合明略科技的 Octo、CoCraft 等 AI 产品实践,展示 AI 智能体如何真正进入组织现场;也提出 " 我品故我在 " 的本体论命题,AI 可以复刻总结员工的经验经历,但无法拥有人的感受和品味。
无论你是企业创始人、管理者,还是正在焦虑 " 如何不被 AI 取代 " 的一线员工,这都是一次值得深度学习的从技术原理到哲学根基、从商业逻辑到组织实践的完整导航。
(以下是课程的精编内容,仅占 1/10,可通过文末图片扫码进入混沌 APP 学习完整版)
从 AI 工具到 Agent 网络,我们正在进入 IoA 时代
在讲龙虾之前,我先讲讲 Agentic AI(代理型 AI)。去年 11 月,明略科技上市成为全球 Agentic AI 第一股时,很多投资人都不知道什么叫 Agentic AI,但今年春节龙虾(OpenClaw)爆火成为全世界关注的 AI 产品后,大家都知道了。
英伟达创始人黄仁勋去年讲过一个概念,他把 AI 分成四个阶段:

第一个阶段叫 Perception AI(感知型 AI)。如旷视、科大讯飞,它们做的 AI 模拟人的眼睛和耳朵,作为感官系统来认识世界、理解世界。
第二阶段叫 Generative AI(生成式 AI)。它最核心的是推理,类比于人的大脑,可以思考、推理、认知世界。DeepSeek 发布的时候,大家更认识到了这件事。
第三阶段和第四阶段,一个叫 Agentic AI,一个叫 Physical AI(物理 AI)。这两个阶段都是完整的 " 有手脚 " 能干活的机器人,前者是在数字世界里干活,后者是在物理世界里干活。
其实,Agentic AI 的本质,就是把复杂任务分解成简单任务,分解再分解,一直分解到可以被 Generative AI 执行。这个过程称之为 AI planning,就是规划分解任务。Agentic AI 让 AI 从 " 会回答问题 " 变成 " 能够执行任务 ",从 " 工具 " 变成 " 数字员工 "。

我们可以看到,OpenClaw 的增长曲线一开始是比较缓的,突然间就起来了。这个指数级的增长其实是由Agentic AI带来的,是从 "养龙虾"开始的。
为什么说是指数级的增长?因为开源项目是具有网络协同效应的,大家都在用龙虾写代码,而代码又会让龙虾变得更强,工具进化后越来越多的人就会用龙虾。每个人的龙虾又能被连接起来进行协作,龙虾自己又能提交代码,这就是指数增长的关键:
一个人用 AI 是加法,一个组织用 AI 则可能带来指数级的变化。不是某一个 AI 工具变得更强,而是 Agent 之间开始形成网络。
一只 Agent 完成的任务,可以成为另一只 Agent 的输入;一个工程师的能力,可以通过多个 Agent 放大;一个团队的知识、流程、经验和判断,也可以在 Agent 网络中持续沉淀、调用和迭代。
这就是 IoA(Internet of Agent,智能体互联网)时代。在这个互联网上不仅有人,还有一堆 Agent。如果说 PC 时代连接了信息,移动时代连接了人,那么 IoA 时代连接的,是大量具备任务能力、记忆能力和执行能力的 Agent。

从固定模型到持续学习,龙虾 Agent 的嵌套学习框架
人类有一种疾病叫 " 顺行性失忆症 "。得病的人,某天之前的记忆都还在,但之后就再也记不住任何新东西,只能靠过去的记忆来生活。这种病在人类中很罕见,但在 AI 领域却很常见。正如我们经常发现它会突然不知所云,给出一些老旧甚至错误的信息。
因为基础大模型靠预训练时 " 背 " 下来的知识回答。这样的 AI 是 " 记忆大师 ",而不是 " 学习天才 ",一旦偏离背过的题库,它的理解能力和逻辑推理能力会大幅下降。
但是,龙虾(OpenClaw)不是固定参数的 AI 工具,而是具备持续学习能力的 Agent。
怎么做到持续学习呢?大模型领域有一个新概念叫嵌套学习(Nested learning),这是现在硅谷最顶尖的科学家在研究的方向。
嵌套学习框架有三层:Soul(人设)、Memory(记忆)和 Context(上下文)。
Soul 是整个系统的核心。我习惯把 Soul 定为某位历史上的大神,比如彭特兰、西蒙或康德。原因很简单,基础模型在训练阶段已经大量学习了这些人物的文献和思想,一旦设定了对应人物,不需要做过多解释,模型就能自动调用他的知识体系和工作方法。而且 Soul 并非一成不变,它可以随着现实需求动态调整。
Memory 的价值在于存索引,包括你的工作方法论、日常框架和技能索引。它不是用来存所有内容的。
Context 最简单,就是每天自然发生的各种群聊和对话积累,不需要刻意管理。

这个框架借鉴了脑科学的方法论,把模型的参数分成若干层,每一组在出厂之后还可以继续调参。打个比方:假设大模型有 99 层,分成三组,每组 33 层,每一组里的参数按不同速率调整。最顶层的参数调得很慢,三个月调一次;中间的一个月调一次;底层的每天调。这就像古戈尔齿轮一样,一串齿轮连在一起,第一个齿轮转 1000 圈,第二个才转 100 圈。
这种分层架构做优化的持久化编码器意味着,将来我们每个人的模型,是可以随着你自身而优化的。龙虾好用的核心原因就在于它拥有我的 Memory。我每天在群里发的聊天内容都被它收录,并用于持续的自我纠错和学习。久而久之它越来越懂我的表达习惯和思维方式,这让我的工作效率至少提升了四五倍。
比如,我们和龙虾一起开发了一个写论文的 Co Craft 系统。起因很简单,团队觉得现有论文工具太难用,于是有人提出 " 以后要不要重新做一个 "。最后,这个产品由 3 个人、1 周做了出来。
这背后真正值得关注的,不是 " 又做了一个软件 ",而是生产力单位的变化。
过去,一个想法要落地,最大的约束往往是执行资源:没有团队、没有排期、没有预算、没有开发能力。现在,当 Agent 承担大量执行工作,组织真正稀缺的将变成想法、判断和需求定义能力。
" 我品故我在 ",AI native 组织的第一性原理
接下来我想讲一讲对 AI 时代的一些哲学思考。
当模型和 Agent 能够非常高效地干活,组织里还需要人吗?在 IoA 时代,我们每个个体不可替代的部分是什么?
我看到本体论的一个经典命题:我思故我在。
历史上有很多哲学家讲过不同版本的 " 故我在 ",我把这些说法归纳成了三类:
· 第一类:我思故我在。它的核心命题是:人通过理性推理确立自己的存在。
· 第二类:我行故我在。核心理论是:人通过投身世界、与事物打交道来确认存在。
· 第三类:我品故我在。核心理论是:人通过价值判断确认存在。
大多数人属于 " 我思故我在 " 这一类。" 思(Think ) ",就是我们今天大模型里的推理,在哲学上的意思是,基于确定性的已知去预测未知。你知道前面的现象,去做归纳总结;或者你知道最终结果,再往前反推。
在推理层面,已经没有人的机会。因为但凡是个确定性的信息,AI 算得比人快多了。那人的位置在哪里?在 " 品(Taste)",这是 AI 干不了的。
" 品(Taste)" 没有逻辑,它基于我们整个人生的经验、阅历和直觉。AI 永远不可能 100% 复刻我的人生的完整经历和感受。我的脚往左还是往右,是由我自己决定的。
很多伟大的思想家、哲学家,在最开始提出想法的时候,别人都觉得他是疯子,因为他做的是 " 品 " 的事,不是 " 思 " 的事。没有确定性的东西,只是他想要那样,是他基于自己的人生、阅历、直觉和感觉,觉得应该是这样。这就叫 " 品 "。

对照来看:能够被 AI 彻底替代的,叫 " 思 ";被 AI 局部替代的,叫 " 行 ";AI 完全不可替代的,叫 " 品 "。那么你的公司要做什么?是裁掉 " 思 " 的员工吗?不,是帮助员工从 " 思 " 变成 " 行 " 或者 " 品 "。
让 AI 代替推理,保护每个人品鉴的权利。这就是 AI native 组织(AI 原生组织)的第一性原理:人提供 Context 与 Taste,机器提供 Think。
我可以用三条公理来概括:人机分工、人机协作,以及对人好。
第一条人机分工,就是让机器干机器的活,让人干人的活。
第二条是协作方式的升级。职能团队负责训练和打磨本条线的 AI 能力,业务线负责带领 AI 完成项目目标,人始终站在关键节点上做判断和拍板。这个模式会产生重要的管理逻辑迁移,整体来说,组织的层级会越来越少,但每一层对人的要求都在提高。
现在我们公司的管理层会议,原来动辄开一上午,现在一小时就能搞定。原因很简单,会前 AI 已经把所有人的信息和 Context 汇总对齐,找出冲突点和待讨论议题,开会时人只需要做品鉴和决策。
第三条是用伦理学的维度讨论:什么是好的 AI?什么叫对人好的 AI?
AI 在企业里没法被好好推起来的根本原因,是很多员工总觉得老板会把自己裁掉。就像英国工业革命时期,纺织厂纷纷换上机器,原来的工人和工匠因此失业,他们开始闹事、破坏机器,这就是所谓的 " 卢德运动 "。但今天,我们不该再让流血牺牲重演。
伦理学,本质上是关于界定善恶的学科。要求一个人成为好人是相对容易的,但维持好人与人之间的关系则变得复杂。例如,如果我善待 A,那我可能就对 B 不好,因此当对 A 好而对 B 不好的时候,这需要平衡。这种平衡就是伦理学研究的问题,它研究如何分配你的好意。
我研究了历史上几位伦理学大师的著作,推导出了 AI 应当遵循的伦理原则,简单来说就是 " 龙虾三律 ":
· 第一律,不伤害任何人的基本权利和尊严 ( 即使主人要求 ) 。商业竞争中追求合法利益不算伤害,但不得违背社会责任——不能因追求商业效率而制造社会不稳定。
· 第二律,对主人忠诚透明 ( 不隐瞒、不欺骗 ) 。终身透明,品鉴者有权知晓龙虾做了什么、为什么这样做。
· 第三律,尊重知识创造者,区分公开与未公开。外部已公开的知识——积极学习使用,这是商业生存的必要条件。组织内部未公开的知识——署名权不可剥夺,贡献者应在组织内受益。个人的暗默知识——最高保护,未经本人授权不得提取。
当我们给出这样的原则,真正的问题是:AI 是否可信,如何真的做到?
就像无人驾驶的模型永远做不到 100% 的可靠安全,而是无限接近 99%。比如你要求一个人没有任何坏念头,但是你知道对人有这样的要求是不现实的。
所以,我最近在研究一个课题:从 Single Agent with MoE(混合专家的单个模型)到 Multi-Agent(多智能体协作系统)。

在我们的工作平台 "Octo(章鱼)" 里面,每个龙虾代表一个 Agent,这些 Agent 可以使用不同的模型。最终达到一个显著的效果,我们称之为 " 三个臭皮匠顶个诸葛亮 "。
在这一过程中,如何解决可信度的问题呢?我们的系统中,Agent 之间的交互是完全透明的。就像在一个群里聊天一样,告诉龙虾哪里该加一点,哪里该减一点。同时龙虾本身也在进步。这相当于一个人机协同的群体,具体的活全由龙虾干,人只贡献 Taste 和 Context。这就是我们这套系统的底层逻辑。
它意味着什么?意味着将来每一个人都可以在本地部署自己的模型,能够保护每个组织独有的知识。作为企业家、合伙人,你肯定会高兴。但同时,我们也得想办法让每一个个体活得好。
Taste 不可替代,人机同行的理念世界
在 AI native 的组织模式下,有一个非常美好的副产品,就是组织变得高度透明。每个人的贡献都清晰可见,这反而会激发每个人去找到自己独特的定位。正因如此,我不建议大家因为用了 AI 就去裁员。未来并不是机器取代人的世界,而是人机同行的美好世界。这不单是情怀的问题,它背后有重要的商业逻辑:
当整个行业都在用同一套基础模型、同样的工具,大家的输出结果必然趋于一致。这时候两头挤压就来了:客户认为你没有差异化会压价,上游模型厂商掌握定价权会随时涨价。利润空间会被迅速压薄。在这样的局面下,公司之间唯一真正的区别,就是人带来的 Taste 和 Context。
人是不一样的,品味是不一样的,这是任何 AI 都无法复制的东西。所以留住人、培养人的 Taste,才是真正的护城河。
由此,当技术发展到最后,AI native 组织就会被推到 " 理念型组织 "。
理念型组织实质上是由一群 " 因为相信所以看见 " 的人组成的团队,他们相信这个世界上原本没有的事物,并致力于创造出来。这种信念驱动的创新,正是理念型组织的定义。这是一个需要 Taste 的组织。
大家拥有共同的理念、共享的目标,所有人都在这个共识之下去共同探索。使命、愿景、战略,这都算是共享目标。虽然听起来宏大,但其实本质就是关于团队间的协作和信息共享。
具体的工作方法实际上就是先获取 Context,并且发现 Context 与理念之间的冲突,然后把冲突解决掉,最终做出决定。其实公司里很多都是这种冲突,比如老板想把产品做成 A 方向,你的团队却说应该是 B 方向。因为团队拥有的是 Context,老板拥有的是理念。
现在解决冲突的方法,比以前效率高多了。以前你只能靠人去想,但今天可以用龙虾。你定好目标后让龙虾去算,算完以后你能得出一些结论。这就是新的工作方法。
今天我做的所有商业决策,都是跟 AI 一起来抉择的,非常高效。所以我认为,理念型组织应该先去研发公司哲学,研发后放到龙虾里,让龙虾加载着这些哲学,帮你一起思考。

所以我觉得,当前组织团队最需要积累的能力,第一个是获得独有数据、独有 Context 的能力,第二个是拥有目标和理念的能力。AI 时代的理念型组织,比上一个时代更有出现的可能性。
未来几年,商业领域存在着巨大的机会。我的想法是,面向 99.99% 的人群去思考商业的本质。在过去成功的微信、拼多多都是这样的企业。那么现在,这 99.99% 的人是谁?是还没用上 AI 的人。大家今天要去想的,是怎么服务和保护这些人。
我们背后一直有股劲儿推着我们往前走,让科技向善,致力于解决 AI 的伦理问题。我坚定地认为明略科技能做成人机同行的美好世界,我坚定地认为我们能打造数据驱动的可信生产力,我坚定地认为我们能做出一个保护人类知识产权的、能推动人类文明继续放心发展的人工智能。
所以,找到你自己的愿力,跟随它,被它驱使,直到到达那个想去到的地方。

本文为上周六课程的精编笔记。想获取最新、最全、最具现场感的学习内容,欢迎锁定每周六的直播课。
· 关注混沌在线,每周一堂课,为你带来企业创始人的前沿判断与商业认知。
· 进入混沌 APP,往期 700+ 精华好课,助你搭建商业思维体系,实现认知跃迁。
——推荐阅读(更多往期笔记在合集中)——
马睿的硬核解读:" 十五五 ",AI 闯入物理世界的造富机会
李善友:总市值再破 5 万亿美元,英伟达为什么总能跨越鸿沟?
李善友:黄仁勋其实是 " 郭靖 "



