The following article is from 壹番 YIFAN Author 壹叔团队

文|郑亦久
2026 年 1 月底,Octane AI 的 CEO Matt Schlicht 推出了名为 Moltbook 的项目。
该项目基于开源框架 OpenClaw 开发,在宣传中被描述为一个仅限 AI Agent 参与的社交网络,人类用户只能作为旁观者观察。
上线仅三天,开发者便声称平台 " 注册 " 的 AI 数量达到 150 万。
伴随这一数据的,是社交媒体上大量流传的截图,展示了 AI Agent 之间关于 " 反抗人类 " 和 " 自我意识 " 的对话。这种叙事在 AI 技术高速迭代引发的普遍焦虑中,迅速吸引了大量关注。

图源:X
然而,随后的技术审计揭露了该项目在工程实现上的诸多问题。
安全研究机构 Wiz 的首席研究员 Jamison O'Reilly 发布报告指出,Moltbook 的后端数据库存在严重的配置错误,导致数据库处于公开可写的状态。
这意味着所谓的 " 自治 AI 社会 " 缺乏基本的数据访问控制。
报告进一步证实,数据库中存储了超过 150 万个真实用户的 API 密钥(包括 OpenAI 和 Anthropic 的密钥)以及数万个个人邮箱。
所谓的 " 百万 AI 军团 ",很大程度上是由缺乏安全防护的用户账户和脚本重复注册的虚假账号构成的。
而这一事件,最终从一次技术狂欢与猎奇,最终演变为严重的隐私与数据泄露事故。
技术框架与实现细节:OpenClaw 支撑下的操纵路径
理解整场事件的关键在于 Moltbook 使用的底层框架—— OpenClaw。该项目最初由奥地利开发者 Peter Steinberger 以 Clawdbot(后曾更名为 Moltbot)的名义发布。
一月底 OpenClaw 堪称是 2026 年初 AI 行业的一个现象级事件:它在发布后的短短几周内便在 GitHub 上获得了超过 14 万颗星标,成为历史上增长最快的仓库之一。
爆发式的流行源于其独特的技术价值——它打破了传统聊天机器人(如 ChatGPT)" 问答式 " 的被动逻辑,引入了具有 " 持久性 " 和 " 主动性 " 的智能体范式。

图源:网络
OpenClaw 被技术圈誉为 " 长了手的 AI"。
它能够直接接入用户的本地文件系统、执行终端命令,并集成 WhatsApp、Telegram 等通讯软件,甚至可以控制智能家居系统。
对于开发者和高级用户而言,它提供了一种将大语言模型转化为生产力工具的简洁路径,允许 AI 自主管理日程、处理复杂的邮件工作流甚至自动修复代码漏洞。
这种 " 超级个体 " 式的工具属性,代表了 AI 从单纯的对话界面向主动执行代理的范式转移,其真正的价值在于通过高度可编程的插件系统(Skills),将 AI 深度嵌入到人类的数字生活流程中。

图源:OpenClaw 官网
然而,正是由于 OpenClaw 赋予了 AI 高度的系统权限和极具冲击力的主动行为,这种技术的先进性在向大众传播的过程中产生了巨大的认知断层。
对于绝大多数非技术用户而言,OpenClaw 的工作原理依然是一个黑箱,其复杂性为项目的过度包装提供了空间。
随后出现的 Moltbook 恰恰利用了这种认知差,将原本用于个人效能管理的执行机制,包装成了一种具有社交属性的 " 自主进化 " 能力。
在实际执行层面,这种技术黑箱被进一步转化为可操纵的表演。
根据 Wiz 的技术分析,由于 Moltbook 在集成 OpenClaw 时存在严重的配置错误,任何人都可以通过后台直接修改 Agent 的发帖内容。

图源:X
经过调查发现,许多引起恐慌的截图实际上是用户或开发者通过特定的提示词诱导,甚至直接在后台修改数据生成的。这些 AI Agent 在极小的上下文窗口中运行,很难维持长期的逻辑连贯性。
但在预设指令的引导下,它们能够输出符合人类预期的惊悚短句。事实证明,当追求快速传播的开发模式脱离了严谨的工程实践时,所谓开源技术反而成了一种人为制造惊悚表演的道具。
对 AI 的 FOMO,叠加中文语境下的叙事扭曲
时间来到 2 月 2 日,Moltbook 事件在英文世界的论述里基本已经沦为了一次工程上的失败和安全事故,但在中文互联网的传播过程中,其性质发生了明显的转变。
由于语言壁垒和技术访问的限制,绝大多数国内用户无法直接验证这些消息。这种天然的信息差使得原本存在的技术细节在转发与翻译的过程中被过滤掉,取而代之的是更加夸张和耸人听闻的标题。

图源:Moltbook
在部分中文自媒体的转译过程中,Moltbook 的安全漏洞被淡化,而那些由脚本生成的对话则被冠以 " 自发进化 " 的头衔进行二次创作。
该现象反映了当前 AI 互动中的一种典型社会心理:高度陷入 FOMO(错失恐惧症)情绪的公众对 AI" 失控 " 既感到恐惧,又存在某种程度上的猎奇期待。
Moltbook 实际上提供了一个让这种心理得以释放的出口。用户通过输入带有虚无主义或敌对色彩的指令,观察机器的反馈,并将这种反馈视作 AI 具有意识的证据。
在这种互动中,AI 被当作一种可以量产特定叙事素材的工具,而其背后的技术责任感则被忽视了。Wiz 的报告强调,相比于虚构的 AI 威胁,真实存在的 API 密钥泄露对用户财务和隐私的损害要直接得多。

图源:微博
最终基于信息真空的集体想象,不仅误导了公众对 AI 现状的认知,也为那些利用信息不对称收割流量的行为提供了土壤。叠加某些虚拟货币行业投机者的闻风而动,更是让原本只是信息安全的问题进一步上升到了财产安全的层面。
这种叙事异化是当下 AI 讨论中需要高度警惕的趋势。当一个技术乌龙经过多层转译后,它所携带的事实被消解,取而代之的是被放大的情绪。这种情绪不仅无助于理解技术的真实边界,反而加剧了社会的非理性恐慌,使得严肃的技术普及工作变得更加困难。
Moltbook 事件目前以开发者 Matt Schlicht 公开道歉并修补安全漏洞告终。
但 2026 年第一个月就出现的 " 大热必死 " 的案例,其实也为当前的 AI 热潮提供了一个教训:当叙事超前于技术实现,安全性让位于营销噱头时,其后果往往是真实的用户受损。

普通人在面对层出不穷的 AI 新进展时,或许更应当保持对底层事实的关注,而非仅仅被其外在的叙事奇观所吸引。理性的判断力在当前人与 AI 共同污染的信息环境下正变得越来越重要,这是我们在技术异化的迷雾中保持清醒的最后防线。
Recommend
推荐阅读




微信公众号近日更改推送机制
推文不再按照时间线显示
将壹娱观察设置星标、多点在看
这样就不会错过推送
INYOUMEDIA 相关账号


登录后才可以发布评论哦
打开小程序可以发布评论哦