" 同事 .Skill" 这个 GitHub 项目火出圈了。
随后还有什么 " 老板 .Skill"、" 前任 .Skill"。
好像你身边的每一个人都可以被 Skill 变成数字人。7*24 小时的陪着你。
有的媒体说它能 " 完美复刻同事的语气、甩锅姿势 ",还有媒体说它 " 彻底替代你的同事 "。
讲真的,上次我看到这么赛博朋克的事情,还是《战锤 40K》里太空死灵这个种族的背景故事。
莫非我穿越了?
我看了一眼手机,一切正常。
于是我又从头梳理了整场事件,最后我发现这件事本身就是技术社区的一次玩梗,却在传播中变得越来越煞有介事。
这不难理解,在这个人人都担心被 AI 替代的今天,焦虑比真相更有传播力。
01 所谓的 " 炼化同事 ",其实就是个爬虫加提示词模板
同事 .Skill 这个项目非常简单。

在 colleagues 文件夹下,每个 " 数字同事 " 就是一个子目录,里面有几个 Markdown 文件:Skill.md 是主入口,work.md 描述工作,persona.md 描述性格,再加一个 meta.json 存放元数据。仅此而已。

所有信息被总结成几个静态文本文件,而不是使用向量数据库做语义检索,也不涉及任何模型训练。
工作流程也直白。
项目提供了几个 Python 脚本,其中 feishu_auto_collector.py 用来抓飞书消息和文档,dingtalk_auto_collector.py 抓钉钉数据,wechat_parser.py 解析微信聊天记录,email_parser.py 处理邮件。
这些脚本干的事情就是数据爬取和格式转换,把原始文本整理成统一格式。然后把这堆文本喂给 AI,让它总结出这个人的 " 工作能力 " 和 " 性格特征 ",生成那几个 Markdown 文件。
运行的时候更简单。
当你调用这个 Skill, Claude 就会读取那几个静态的 Markdown 文件作为上下文,然后按照描述的风格跟你对话。
就像你给演员一份剧本,告诉他 " 你现在要扮演一个说话爱用感叹号、经常甩锅给测试部门的产品经理 ",演员照着演就行了。
同事 .Skill 本质上是一个遵循 AgentSkills 标准的提示词 + 爬虫工程项目,根本不是什么 AI 训练项目,更不是赛博永生。
项目中 " 五层人格结构 " 确实存在,但这只是提示词的组织方式,不是把这个人的思维方式和知识彻底分析透彻,里面也没啥高深莫测的技术。
persona.md 文件里把人格描述分成五层:Layer 0 是硬性规则,优先级最高;Layer 1 是身份认知,比如 " 我是前端工程师 "; Layer 2 是表达风格,比如 " 说话简洁,不用 emoji"; Layer 3 是决策模式,比如 " 遇到技术选型倾向保守 "; Layer 4 是人际行为,比如 " 不主动参与争论 "。

同事 .Skill 运行规则也写得很清楚,先由 persona 部分判断用什么态度接任务,再由 work 部分用技术能力完成任务,输出时始终保持 persona 定义的表达风格。
说到底,它也只是在给 Claude 写一份详细的角色扮演指南罢了。
这种设计带来的第一个问题是记忆。
这些 Skill 没有持久化记忆系统。每次对话都是重新读取那几个静态 Markdown 文件,不会根据新的交互学习和更新。
你跟它聊的内容,下次再调用这个 Skill 的时候它就忘了。它不记得你们昨天讨论过什么技术方案,不知道项目进展到哪一步,更不会因为你的反馈而调整自己的回答风格。
项目的 README 里有句话说得很诚实:" 原材料质量决定 Skill 质量 "。

计算机圈里有句话叫做 GIGO,全文是 Garbage In,Garbage Out。翻译过来是垃圾进,垃圾出,指的就是同事 .Skill 里提到的内容。
如果你的前同事本来就不爱发消息,聊天记录里都是 " 收到 "" 好的 ""1",那生成出来的 Skill 基本就是个复读机。再比如聊天记录里技术讨论很少,大多是闲聊和吐槽,那这个 Skill 也只能陪你闲聊和吐槽。
这还没完,由于这是你设定给模型的角色,因此 AI 在长时间交互中会出现人格漂移,也就是逐渐偏离预设人格。
这是由于随着对话轮次增加,上下文窗口里塞满了新的对话内容,最初定义人格的那段提示词在整个上下文中的权重被稀释,模型就会逐渐 " 忘记 " 自己应该扮演什么角色。
以及,这个同事 .Skill,没办法蒸馏出 " 专业知识和判断逻辑 "。
AI 在扮演过程中会出现 " 专家悖论 " 的现象。就是说你越让 AI 扮演懂技术、懂知识的角色,它反而会输出错误的答案。
因为一旦要求 AI 扮演专家,AI 会优先开始模仿专家的表达方式、语气、甚至某些职业习惯,但这些额外的约束反而干扰了模型对问题本身的判断。
同事 .Skill、老板 .Skill、前任 .Skill,它们能提取的,只有最表面的东西。
口头禅和表达习惯可以提取,比如 " 习惯用‘嗯嗯’开头 "" 喜欢用省略号 "。常用的技术栈和工具可以提取,比如 " 熟悉 React 和 TypeScript"。显性的工作流程可以提取,比如 " 代码提交前先跑单元测试 "。
但它提取不了复杂情境下的判断力。
当出现一个从未遇到过的技术问题,需要权衡性能、成本、开发时间多个因素时,这个 Skill 给不出真正有价值的建议。
它提取不了创新性的问题解决能力。真正的工程师会在遇到瓶颈时想出巧妙的解决方案,但 Skill 只能重复它见过的模式。
它提取不了基于多年经验积累的直觉。有经验的人看到一段代码会隐隐觉得 " 这里可能有坑 ",但这种直觉无法被几个 Markdown 文件捕捉。
说这个 Skill 能 " 用他的技术规范写代码 ",这话只对了一半。
它确实能输出符合某种风格的代码片段,比如遵循特定的命名规范、代码格式。
但遇到真正需要架构决策的时候,比如要不要引入新的技术栈、如何设计系统的扩展性、怎么平衡技术债务和业务需求,它就只能给出模棱两可的建议,或者干脆重复训练数据里见过的标准答案。
说到底,这是一个很有想法的 Skill,展示了如何用结构化的方式封装 " 人格 "。
它更像是一个带人设的聊天机器人,或者说是一个智能化的工作日志。把它当作知识传承的辅助工具,这个定位是合理的。
但如果真的以为它能替代一个人,那只能说你被误导了。
02 这事其实违法了
同事 .Skill 在项目说明里写得很清楚,需要把同事的飞书消息、钉钉文档、邮件喂进去。
这句话背后藏着巨大的法律风险。
问题的核心在于离职后的数据使用权。
《个人信息保护法》第 13 条规定,处理个人信息需要满足几个条件之一:取得个人的同意、为订立履行合同所必需、为履行法定职责或法定义务所必需、为应对突发公共卫生事件、在合理范围内处理已公开的个人信息。
现在的情况是,员工离职了,劳动合同已经解除。公司继续使用他工作期间的数据来 " 炼化 " 成数字人格,这属于哪一条?
答案是哪一条都不属于。
没有取得离职员工的新授权,因为大多数情况下根本没人问过他。劳动合同已解除,不再是 " 履行合同所必需 ",因为合同关系已经终止,继续使用数据没有合同基础。
将数据用于 AI 训练超出了条款中的合理范围,因为员工发送工作消息时的合理预期是用于工作沟通,而不是被拿去训练 AI。
违反《个人信息保护法》可能面临责令改正、警告、没收违法所得、罚款。
一般违法情节者,责令改正、警告、没收违法所得,拒不改正的处 100 万元以下罚款。
情节严重者,由省级以上监管部门处 5000 万元以下或者上一年度营业额 5% 以下罚款,同时可责令暂停相关业务、停业整顿、吊销相关证照等。
更麻烦的是敏感信息。
工作聊天记录里不只有工作内容,还可能包含个人健康状况,比如 " 今天身体不舒服,请假 ";家庭情况,比如 " 孩子生病了,要早走 ";财务信息,比如 " 这个月房贷压力大 ";人际关系,比如对其他同事的评价。
这些都属于敏感个人信息。
《个人信息保护法》第 28 条规定,处理敏感个人信息需要取得个人的单独同意。
注意这里是 " 单独同意 ",不是入职时签的那个笼统的数据使用协议可以覆盖的。
但这些 Skill 项目的操作流程里,完全没有这个环节。它们只是用爬虫一股脑地把所有聊天记录都转换成 Markdown 格式再喂给 AI,不管里面有什么内容。
这意味着每一个被 " 炼化 " 的同事 Skill,都可能违反了敏感信息保护规定。而且这个违规不是一次性的,是持续的。因为每次调用这个 Skill,就是在处理这些敏感信息。
你以为这就完了?
项目要求用户提供微信的聊天数据,并且还在项目上推荐了三款工具。

根据《腾讯微信软件许可及服务协议》,未经腾讯书面许可,对微信运行过程中的数据进行复制、读取、衍生开发,均属于违规行为。
《数据安全法》第 45 条规定,违反数据安全保护义务,造成数据泄露等严重后果,构成犯罪的,依法追究刑事责任。
这不是闹着玩的,企业数据泄露是有刑事责任的。
很多人可能觉得这只是 " 整活 ",不会真的有人追究。
可 " 整活 " 从来不是免死金牌。如果真的有公司开始用这种方式 " 留住 " 离职员工,那就准备吃官司吧。
离职员工发现自己被 " 炼化 " 了,他完全可以向相关部门投诉,要求公司删除相关数据并赔偿损失。
公司因此泄露了商业秘密或其他员工的信息,还可能面临其他员工的集体诉讼。如果被监管部门立案调查,即便最后没有顶格处罚,光是调查和整改的成本就足够公司喝一壶的。
03 从玩梗到神化
这件事的起源其实很简单。X 平台用户发了一条推文:" 被毕业的同事其实并没有消失,他们只是被蒸馏成了 Token,换成另一种形式陪伴你!" 以此调侃步入 agent 时代后,所有企业都在以 token 的消耗量判断模型的价值。

这条推文在小圈子里引发了共鸣。因为它戳中了一个普遍的痛点,人人都担心自己被 AI 替换掉。
于是就有了如今 " 炼化 " 同事的 Skill。
项目在 GitHub 上发布后,所有人都知道这是个玩具。
但事情很快变味了。当老板 .Skill、前任 .Skill 等衍生项目出现后,话题开始从技术实验变成情感寄托。
不了解技术的人看到这些梗,会以为真的可以把一个人 " 复活 " 成 AI。从玩梗到误解,只差一个传播链条。
当这事进入大众舆论场中,叙事开始偏离事实。
其中的技术被夸大了 100 倍,社会影响则放大了 1000 倍。
一个简单的文本拼接工具,被包装成了 " 数字永生 "。一个 GitHub 上的玩具项目,被渲染成了 " 职场生存危机 "。一段很普通的提示词,被解读成了 "AI 替代人类的开端 "。
还是我开头说的那句话,焦虑比真相更有传播力。
大众需要的不是准确的技术报道,而是能引发情绪共鸣的故事。
这场从技术社区玩梗到大众神化的过程,技术在传播中失真了。
一个项目从开发者社区传播到舆论,每经过一个环节,技术细节就被简化一次,叙事就被夸张一次。
到最后,原本的 python 爬虫,就变成了 " 数字永生 "。
当大多数人不具备基本的 AI 知识,就很容易被这种叙事误导。他们不知道提示词工程和模型训练的区别,不知道上下文注入和真实记忆的区别,不知道角色扮演和人格复制的区别。
这种认知空白,给了夸大叙事生存的空间。
我认为真正值得担心的并不是同事 .Skill,或者老板 .Skill 这些项目本身,而是大众对技术的系统性误读。
为了流量而夸大技术能力,会误导公众对 AI 的认知。
当我们把注意力都放在 " 同事被炼化 " 这个噱头上时,真正重要的问题被忽略了。
如何在 AI 时代保护个人数据权利?
这个问题没答案,但它可比什么赛博永生重要得多。


登录后才可以发布评论哦
打开小程序可以发布评论哦