钛媒体 8小时前
杨植麟、张鹏、罗福莉等阔谈,OpenClaw正在重写AI产业逻辑
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_font3.html

 

3 月 27 日,中关村论坛大会期间,一场主题为 OpenClaw 与 AI 开源的圆桌人头攒动,主持人是月之暗面创始人杨植麟,嘉宾包括智谱华章 CEO 张鹏、无问芯穹联合创始人兼 CEO 夏立雪、小米 MiMo 大模型负责人罗福莉、香港大学助理教授黄超,各方针对时下热点和未来发展给出了自己的观点。

过去两年,大模型的主线还是 " 更聪明地回答问题 ",从 OpenClaw 爆火开始,行业的叙事已经悄然切换—— AI 不再只是对话者,而是开始成为 " 干活的人 "。

OpenClaw 的意义,恰恰在于它像一个 " 脚手架 ",把原本分散在模型、工具、算力之间的能力重新组织起来,让普通用户也能调用原本只属于工程师的复杂能力。从写代码、调接口,到执行长任务、自动调试,这种能力的下沉,本质上是在降低 " 创造力的门槛 "。与此同时,它也放大了另一面:token 消耗呈指数级增长,推理成本迅速抬升,基础设施开始承压,整个行业被迫进入 " 推理时代 " 的真实考验。

也正因此,围绕 OpenClaw 展开的讨论,早已超出一个产品或框架本身。它牵动的是一整套新的问题:模型如何支撑长上下文与复杂规划?基础设施如何适配毫秒级调用与海量 token?多 Agent 协作、记忆管理、工具生态如何形成闭环?以及最现实的——算力与成本,能否跟上这场爆发式需求。

在这场对话中,产业链各方的参与者给出了各自的答案,也共同勾勒出一个清晰趋势:未来 12 个月,大模型竞争的核心,将从 " 谁更聪明 ",转向 " 谁能让 AI 真正工作起来 "。

以下为对话实录,经编辑:

OpenClaw 带来的变革

杨植麟:很荣幸今天能邀请到各位重磅嘉宾,覆盖了从模型层到底层算力层,再到上层 Agent 层的不同层面。今天最主要的关键词是开源和 Agent。

我们先从第一个问题开始——现在最流行的 OpenClaw,大家日常使用 OpenClaw 或类似产品时,觉得最有想象力或印象深刻的是什么?从技术角度如何看待 OpenClaw 和相关 Agent 的演进?

张鹏:我很早就开始玩 OpenClaw,当时还不叫 OpenClaw,最早叫 Clawdbot。作为程序员出身,自己动手折腾这些东西有一些独特体验。

OpenClaw 最大的突破点在于,这件事不再是程序员或极客们的专利,普通人也可以方便地使用顶尖模型的能力,尤其是在编程和智能体方面。

我更愿意把 OpenClaw 称作" 脚手架 "。它在模型基础之上搭起了一个牢固、方便又灵活的脚手架,大家可以按照自己的意愿使用底层模型提供的新奇能力。原来一些想法受限于不会写代码或其他技能,今天终于可以通过简单交流完成。这对我来说是一个非常大的冲击,让我重新认识了这件事。

夏立雪:我最开始用 OpenClaw 时不太适应,因为习惯了跟大模型聊天的交流方式,感觉 OpenClaw 反应很慢。但后来我意识到,它和之前的聊天机器人有一个很大不同,它应该是一个能帮我完成大型任务的 " 人 "。

当我开始提交更复杂任务时,发现它能做得很好。这让我感触很深,模型从最初按 token 聊天,到现在能变成 Agent、变成 Claw 帮你完成任务,对整个 AI 的想象力空间做了很大提升。但同时,它对系统能力的要求也变得很大,这也是为什么一开始会觉得有点卡。

作为基础设施层厂商,我看到 OpenClaw 给整个系统和生态带来了更多的机遇和挑战。我们现有的资源想要支撑这样一个快速增长的时代是不够的。以我们公司为例,从一月底开始,基本上每两周 token 量翻一番,到现在翻了十倍。上次见到这个速度还是 3G 时代手机流量的感觉。

现在的 token 用量就像当年每月一百兆手机流量的时代,所有资源需要进行更好地优化和整合,让每一个人都能把 OpenClaw 这样的 AI 能力用起来。作为基础设施玩家,我对这个时代是非常激动和感触的,认为这里边有很多的优化空间值得探索。

罗福莉:我把 OpenClaw 当作框架的一个非常革命性和颠覆性的事件来看待。虽然身边进行深度 coding 的人第一选择还是 Claude Code,但只有用过 OpenClaw 的人会独特地感受到这个框架在 Agent 框架设计上的领先性。最近 Claude Code 的很多更新其实都在向 OpenClaw 靠近。

OpenClaw 给我带来更多是想象力的随时随地扩展。Claude Code 最开始只能在桌面上延展创意,但 OpenClaw 可以随时随地延展创意。

OpenClaw 的核心价值在于两点:

第一是开源。开源是非常有利于整个社区深入参与、改进、投入一线框架的重要前置条件。像 OpenClaw、Claude Code 这样的 Agent 框架,把国内可能没有非常接近闭源模型、但水平仍在头部赛道上的模型上限拉到非常高。在绝大部分场景中,任务完成度已经非常接近最新模型,同时把下限保证得非常好,靠一套 Harness 系统或 Skills 体系等诸多设计,保证任务完成度和准确率。

从基座大模型角度来说,OpenClaw 保证了模型的下限,拉伸了它的上限。此外,大家发现原来在大模型之外,更重要的 Agent 层有非常多想象力和空间可以做。我看到最近社区有更多除了研究员以外的人参与到 AGI 变革中,更多人借助更强的 Agent 框架替代自己的工作,释放时间去做更有想象力的事情。

黄超:从交互模式来讲,OpenClaw 这次爆火的第一个原因,是给了大家一种更有 " 活人感 " 的感觉。我们做 Agent 也有一两年了,但之前像 Cursor、Claude Code 这些 Agent 给人更强的是工具感。OpenClaw 第一次以 IM 软件嵌入的方式,让大家更有活跃感,更接近想象中个人贾维斯的概念。

另一个启发是,它的架构—— Agent loop 这种非常简单但高效的框架再次被证明。这让我们重新思考,是否需要一个 all-in-one 非常强大的智能体帮我们做很多事情,还是需要一个像轻量级操作系统或脚手架一样的小管家?

OpenClaw 可以通过一个小的 super system 生态,让整个社区更有 " 玩起来 " 的心态,撬动整个生态里的所有工具。随着 Skills 或 Harness 等越来越多人设计更面向 OpenClaw 系统的应用,赋能各行各业。这与整个开源生态结合得非常紧密。这两点带给我们最大启发。

OpenClaw 改变了什么

杨植麟:顺着 OpenClaw 的话题,想问张鹏,最近智谱发布了新的 GLM-5 Turbo 模型,对 Agent 能力做了很大增强。能否介绍一下这个新模型与其他模型的不同之处?我们也观察到有提价策略,这反映了什么市场信号?

张鹏:这是个很好的问题。前两天我们确实紧急更新了一波,这在我们整个发展路标中是其中一个阶段,提前放出来。最主要目的还是要主打从原来简单的对话到干活。正如刚才各位讲的,OpenClaw 真的让大家觉得大模型不再是简单聊天,真的能帮我干活。

但 " 干活 " 背后隐含的能力需求非常高。它需要自己长程做任务规划、不断重试、压缩上下文、debug 等,还可能涉及多模态信息处理。这对模型本身能力的要求与传统的面向对话的通用泛用模型不一样。GLM-5 Turbo 在这方面做了专门加强,尤其是让它能 7 × 24 小时不停地 loop。

关于 token 消耗量,让聪明模型干复杂任务,token 消耗量非常巨大。一般人可能体会不出来,只会看到账单上的钱不停往下掉。这方面我们也做了优化,面临复杂任务时用更高效的 token 效率完成。本质上模型架构还是多任务协同的通用架构,只是能力有偏向性加强。

提价这事很好解释。我们现在不再是简单问一个问题他回答,背后思考链路很长。很多任务通过写代码方式与底层基础设施打交道,还要 debug、随时改正错误,消耗量非常大。完成一个任务需要的 token 量可能是原来回答简单问题的十倍甚至百倍。所以价格上需要成本提高,模型变得更大,推理成本相应提高,我们把它回归到正常商业价值。长期靠低价竞争不利于整个行业发展,这让我们能在商业化路径上有良性闭环,持续优化模型能力。

杨植麟:现在开源模型和推理算力开始形成生态,各种开源模型可以在各种推理算力上为用户提供更多价值。随着 token 量暴涨,逐渐从训练时代变成推理时代。想请教夏立雪,从 infra 层面,推理时代对无问意味着什么?

夏立雪:我们是诞生在 AI 时代的基础设施厂商,现在和 Kimi、DeepSeek 等合作,也在跟小米 MiMo 合作,让大家能把 token 工厂更高效用起来。

我们一直在思考,AI 时代需要的基础设施会是什么样子?怎么一步步实现和推演?我们做好了充分准备,看到短期、中期、长期不同阶段需要解决的问题。

当前的问题就是 OpenClaw 带起来的 token 暴增,对系统效率带来更大优化需求。价格增长也是需求下的一种解决方式。我们一直以来从软硬件打通方式布局解决,接入了几乎所有种类的计算芯片,把国内几十种芯片和几十个不同算力集群统一连接起来,解决算力资源紧缺问题。资源不足时,最好办法是,第一把能用资源都用起来,第二,让每个算力都用在刀刃上,让每个资源发挥最大转化效率价值。

我们要打造更高效的 token 工厂,做了很多优化,让模型和硬件上各种显存、技术进行最优适配,也在看最新模型结构和硬件结构下能否进行更深层次化学反应。

解决当前效率问题只是打造了标准化 token 工厂,面向 Agent 时代还不够。Agent 更像一个人,能交给他一个任务。当前很多云计算时代的基础是为服务程序、服务人类工程师设计的,而不是为 AI 设计的。

有点像我们做了一个基础设施,上面接口是为人类工程师做的,再包一层接入 Agent,这种方式用人的操作能力限制了 Agent 发挥空间。举例来说,Agent 能做到秒到毫秒级别思考和发起任务,但之前底层 K8s 等能力没做好这个准备,因为人类大概发起任务是分钟级别的。

我们需要进一步优化,打造更智慧化的调控工厂,这是无问芯穹正在做的事。从更长远的未来,真正 AGI 时代到来时,连基础设施都应该是智能体。

我们打造的这套工厂本身应该是能自我进化、自我迭代的自主组织,相当于有个 CEO,这个 CEO 是 Agent,可能是 CLaw 在管理整个基础设施,根据 AI 客户需求自己提需求、迭代基础设施,这样 AI 和 AI 之间才能更好耦合。我们也在做让 Agent 和 Agent 之间更好通信等能力。

我们一直思考基础设施和 AI 发展不应该是隔离状态,而应该产生丰富化学反应。这才是真正做到软硬协同、算法和基础设施协同,也是无问芯穹想实现的使命。

杨植麟:接下来问问罗福莉。小米最近发布新模型、开源一些背后技术,对社区做出很大贡献。小米在大模型方面有什么独特优势?

罗福莉:先抛开小米有什么独特优势,我更想谈中国做大模型的团队在大模型上的优势,这个话题更具广泛价值。

大概两年前,我看到中国基座大模型团队已经开始非常好的突破。这个突破是,在有限算力下,尤其在 NV-Link 互联带宽受限的算力情况下,怎么突破低端算力限制,做一些看似为效率妥协的模型结构创新。像 DeepSeek V2、V3 系列、细粒度 MoE 和 MLA 等。

但后面能看到,这些创新引发的是变革,在算力一定情况下,怎么发挥一定算力的最高智能水平。这是 DeepSeek 带给所有国内机构、大模型团队的一个勇气和信心。

虽然今天国产芯片尤其是推理芯片和训练芯片不再受这个限制,但在这样的限制下催生了我们对更高训练效率、更低推理效率的模型结构全新探索。像最近的 Hybrid Sparse Attention 或 Lite Attention 架构,DeepSeek 的 DSA、Kimi 也有 KSA,小米也有面向下一代的架构。

这是区别于 MoE 这一代架构,面向 AGI 时代思考如何在 Agent 时代做更好模型架构构创新。为什么架构创新如此重要?

大家真实去用 OpenClaw 会发现,越用越好用、越用越聪明的前提是推理的 context。

Context 是我们谈论很久的话题,但现在真正发现有模型在 long-context 情况下表现非常好、性能强劲、推理成本低。很多模型不是做不到 1M 或 10M context,而是推 1M、10M 成本太贵、速度太慢。

怎么做到在 1M 或 10M context 情况下推理成本够低、速度够快,这样才会有真正高生产力价值的任务交给模型,从而激发在 long-context 情况下完成更高复杂度任务,才可能在 10M 甚至 100M context 情况下实现模型自迭代。

所谓模型自迭代,就是它可以在复杂环境里依靠超长 context 完成自我进化。这个进化有可能是对 Agent 框架本身,也有可能是对模型参数本身。我们认为 long-context 本身就是对参数的进化。所以怎么实现 long-context efficient 架构,以及怎么在推理侧做到 long-context efficient,是全方位竞争。

除了预训练做好 long-context 架构(这是一年前就探索的问题),当今怎么做到在真实长距离任务上的稳定性和非常高上限效果,是后训练再迭代的创新范式。我们在想怎么构造更有效的机器学习算法,怎么采集到真实在 1M、10M、100M 上下文里都具有长期依赖的文本等,这是我们现在后训练正在经历的事。

更长期的事是大模型本身飞速进步,加上 Agent 框架更好加持。像夏立雪说的,推理需求今年已发生近十倍增长,今年整个 token 增长会不会到 100 倍?这里又到了另外维度竞争——算力或推理芯片,甚至下到能源。

杨植麟:下面问问黄超。你开发了一些非常有影响力的 Agent 项目,包括 NanoBot,也有很多社区粉丝。从 Agent harness 或应用层面,接下来有什么技术方向你觉得比较重要、大家需要关注?

黄超:如果把 Agent 技术抽象出来,关键几个点是 planning、memory 和 tool use。

Planning 方面,现在问题还是面向长任务或非常复杂上下文,比如 500 步甚至更长部署。很多模型不一定能做很好 planning,本质上可能不具备隐性知识,特别是在复杂垂直领域。未来可能需要把已有的各种复杂任务知识固化到模型里面。Harness 一定程度上缓解了 planning 带来的错误,因为它提供高质量 skill,本质上是盖住模型去完成比较难的 task。

Memory 方面,memory 永远存在信息压缩不准确等问题。长任务和复杂场景下 memory 会暴增,带来压力。现在各类 CLaw 都采用最简单文件系统,这种 markdown 格式的 memory,通过共享文件方式来做。未来 memory 应该走向分层设计,包括如何更通用。

现在 memory 机制很难做到很通用。Coding 场景、Deep Research、多媒体领域数据模态差别很大,如何对这些 memory 做很好检索索引、更高效,永远在做 rade-off。

另外,OpenClaw 让创建 Agent 门槛大幅降低后,未来可能不止一个 CLaw。我看到 Kimi 也有 Agent Swarm 机制,未来每个人会拥有一群 CLaw。一群 CLaw 相比一个 CLaw,上下文暴增会非常大,这也是带给 memory 的压力。现在还没有很好机制管理一群 CLaw 带来的整个上下文,特别是复杂 coding、科研发现,带给模型和 Agent 架构压力挺大。

Tool Use 方面,skill 现在存在一些问题。MCP 当时存在质量不保障、安全问题,现在 skill 也存在类似问题。看似确实会有很多 skill,但高质量 skill 比较少,低质量 skill 会影响 Agent 任务完成度,还有就是 skill 注入安全问题。

从 tool use 这块,可能需要靠整个社区把 skill 发展更好,甚至通过执行过程中进化出新 skill。这是 planning、memory 和 skill 当下存在的痛点和未来潜在方向。

杨植麟:可以看到两位嘉宾从不同视角讨论同一个问题——随着任务复杂度增加,上下文会暴涨。模型层面可以提升原生上下文长度,Agent harness 层面像 planning、memory、multi-Agent harness 也能在特定模型能力下支持更复杂任务。这两个方向接下来会有更多化学反应,提升任务完成难度。

未来 12 个月,大模型向何处去

杨植麟:最后来个开放式展望。请各位用一个词描述接下来 12 个月大模型发展趋势及期望。从黄超开始。

黄超:生态。

12 个月在 AI 看起来好遥远,都不知道 12 个月后会发展成什么样。

我觉得一个词应该叫生态。现在 CLaw 让大家活跃,但未来 Agent 真的要真正从个人助手转换为 " 打工人 " 很重要。现在大家玩 CLaw 也是新鲜感、好玩,但未来真的得让 CLaw 们沉淀下来,成为大家的搬砖工具,成为真正的 AI worker。这需要整个生态的努力。

开源很重要,把所有相关技术探索、模型都开出去后,需要整个生态一起来共建。不管是模型迭代、skills 平台迭代还是各种工具,都需要更好面向 CLaw 创造更好生态。

未来很多软件可能不一定会面向人类,因为人类需要 GUI,可能是面向 Agent 原生使用的。人会只使用让自己快乐的 GUI。整个生态又从 GUI 或 MCP 转到 CLI 模式,需要整个生态变成 Agent 原生、Agent-native 模式,才能让 Agent 发展更加丰富。

罗福莉:自主化

把问题缩小到一年很有意义。五年从我心目中对于 AGI 定义而言已经实现了。如果用一个词描述接下来一年 AGI 历程最关键的事情,我认为是自主化。

虽然这个词有点玄幻概念,过去一年大家多次提到,但我最近才对它有更深体会,具体怎么做会有更务实可行的方案。

借助强大模型,之前在 chat 范式下根本没发挥预训练模型上限,现在被 Agent 框架激活到了。触到上限后执行更长时间任务时,发现模型可以自己学习和进化。

很简单尝试:在现有框架叠加可 verify 的条件限制,设置 loop 让模型不停迭代优化目标,就能发现模型会持续拿出更好方案。这种自主化国内模型基本能跑一两天,当然跟任务难度有关。在一些科学研究上,比如探索更好模型结构(有评估标准如更低 PPL),在这种确定任务上已能自主运行两三天。

从我的角度,自主化是唯一可以创造新东西的地方。它不是替代现有生产力,而是像顶尖科学家一样探索世界上没有的东西。

一年前我觉得时间历程会拉到 3-5 年,但近期觉得应缩小到最近 1-2 年。我们可以让大模型叠加非常强的自主化 Agent 框架,实现科学研究至少指数级加速。最近组内做大模型研究的同学 workflow 非常不确定、高度创造力,借助 Claude Code 加非常顶尖模型已基本能加速研究效率近十倍。期待这种范式辐射到更广学科和领域,自主化非常重要。

夏立雪:可持续 Token。

我的关键词叫可持续 Token。现在整个发展还在长期持续过程中,希望有长久生命力。作为基础设施角度看到的很大问题是资源终究有限,就像当年讲可持续发展。

作为 token 工厂,能否给大家提供持续稳定、大规模能用的 token,让顶尖模型真正继续为更多下游服务,是很重要的问题。需要把视角放宽到整个生态,从最早能源转化到算力,再转化到 token,最终转化成 GDP 链路,进行持续经济化迭代。不止把国内各种算力用起来,也在把这些能力输出到海外,让全球资源打通整合。

这也是想把中国特色 token 经济学做起来。之前时代是 Made in China,能把中国低价制造能力变成好商品输出全球。现在想做的是 AI Made in China ——把中国能源优势通过 token 工厂持续转化成优质 token 输出全球,成为世界的 token 工厂。这是我想要在今年看到的中国给世界人工智能带来的价值。

张鹏:算力。

我就简短一点,大家可能都在仰望星空,我就落地一点。未来 12 个月面临的最大问题可能就是算力。

所有技术包括智能体框架让很多人有很好创造力、效率提升十倍,但前提条件是大家能够用得起、用得起来。不能因为算力不够,问题提出让他思考半天也不给答案,这肯定不行。也因为这种原因,可能连研究进展、很多想做的事都受阻了。

前两年我记得沈向洋院士应该也是在中关村论坛说了一句话:" 没卡没感情,谈卡伤感情 "。我觉得今天又到了这个地步,但情况又不一样了——我们又到了推理阶段。推理阶段是因为需求真在爆发,十倍百倍爆发。需求是 100 倍,还有大量需求没满足怎么办,大家一起来想想办法。

杨植麟:感谢各位的精彩分享! ( 本文作者 | 张帅,编辑 | 杨林 )

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论