
家人们,
已经是 2025 年末了,相信大家这一年已经看了不少的 Agent 产品。
每次谈论起 Agent 的时候,都绕不开背后的 LLM。
但,鲜少有人提到另一个关键的部分,
Memory,也就是记忆。
正好这两天刷 GitHub 的时候,
发现了一个专门做 Memory 相关组件的项目,MemMachine。
Github 链接: https://github.com/MemMachine/MemMachine
文档链接:https://docs.memmachine.ai/getting_started/introduction
在 LoCoMo 这个考察模型长对话记忆的 Benchmark 上,
两个版本的 MemMachine 取得了前两名的成绩。

看上去非常牛逼,
那我也实际上手体验了一番,并且把它融入到了我日常的工作流中。
一、本地部署
官方提供了多种部署的方式,
但是我最推荐的,还是用 Docker。
准备好一个 OpenAI API Key,和 Python 版本大于 3.12。
如果你的环境都基本没问题的话,基本是可以一键直达。
curl -s https://api.github.com/repos/MemMachine/MemMachine/releases/latest
| grep "tarball_url"
| cut -d '"' -f 4
| xargs curl -L -o MemMachine-latest.tar.gz
# Extract the release
tar -xzf MemMachine-latest.tar.gz
# Enter the folder ( GitHub adds a hash to the folder name )
cd MemMachine-MemMachine-*
# Run the setup script
./memmachine-compose.sh
我们可以通过 docker compose ps 查看当前服务的状态,

如果一切正常,你应该可以得到三个服务分别是 memmachine-app、memmachine-neo4j、memmachine-postgres 的状态显示为 health。
如果没有 OpenAI Key, 也其实没事。
我魔改实测了一下,
接入 OpenAI 兼容的 API 也是可以的。
比如我自己接入的是硅基流动的 API。
二、接入 Claude Code
坦诚讲,
Claude Code 不得不说已经成为了我日常工作中必不可少的一个工具,
我不仅把它看作一个代码工具,更把它当作一个通用 Agent,帮我处理各种事情。
Claude Code 本身虽然也有 memory,
但是它的 memory 是文件形式的,完全依赖于 claude.md 这个文件,
而 MemMachine 则处理的更为细致一些。
它明确区分不同的记忆类型,
短期记忆、长期记忆、用户画像记忆等等
每条记忆都带着 embedding、引用源、时间等,用于后续的检索和推理。
同时, MemMachine 的扩展性更高。
它能集成进 LangGraph、GPT Store、当然也支持通过 MCP 的方式可以在 Claude Code 中调用。
配置 MemMachine MCP 的方法也很简单,
通过 docker 先启动服务 :
docker compose up -d
然后,在项目文件下配置一个 json 文件,命名为 .mcp.json。
"mcpServers": {
"memmachine": {
"command": "docker",
"args": [
"exec",
"-i",
"memmachine-app",
"/app/.venv/bin/memmachine-mcp-stdio"
] ,
"env": {
"MEMORY_CONFIG": "/app/configuration.yml",
"MM_USER_ID": "your-username",
"PYTHONUNBUFFERED": "1"
}
}
}
}
好了之后,我们可以先进行一个简单的测试。
claude
先进入 Claude Code,然后可以通过 /mcp 来查看配置好的 mcp 服务。

如果一切正常的话,就会像上图一样显示已连接的状态。
然后,我们测试一下,
我随便输入下面一个指令
我不喜欢吃榴莲,加入记忆

claude code 就会调用这个 MCP 服务,为你写入记忆,最后返回一个成功的状态给你。

然后我们关掉这个 session 对话,重开一个,进行提问。
我不喜欢吃什么

可以看到这里 Claude 就会去搜索记忆了。我甚至都不用明确说明调用 MemMachine MCP

最后,它能正确回答出我的问题。
三、我如何运用记忆
Claude Code 现在接入了 MemMachine 之后,更加的强大。
比如,我完全可以依赖于 Claude Code 作为我的文字助手了。
以往想要一个对你了解的文字助手,可能就得自己开发,
但现在简单的配置好之后,就能直接上手。
我把我过往的一些写过的文章 ,可以存进 MemMachine,
让它学习我的文字风格,再以我的文风,写篇新的文字出来。
找到当前文章中 tags 是公众号的文章,并把他存为记忆

Claude Code 一通狂搜之后,找到了 38 篇文章,然后存入了记忆。
学习你记忆中对我的文字风格的了解,结合 DeepSeek-v3.2 的发布,以我的文风写一篇新的稿子出来

它甚至除了调用了对我的记忆之外,还自己调用了网络搜索工具去获取最新的信息。
直接附上实际的效果看看,

上来这个 " 家人们 ",
还是挺对味的,是我的风格。
还有一些口语化的用词,比如 " 简单粗暴到令人发指 "

它还有个特别细节的点,
是对稿子形式上的学习。
如果仔细看过我的文章的小伙伴其实会发现,
我一般会用一些短句,或者个别的长句来组织我的文章。
很少很少在我的文章中会出现大段的文字。
因为这样看起来不是那么累。
它连这个都注意了。
还有就是最后这个结尾和结束语,也蛮有我的风格的。

四、尾声
我们说了一整年的 Agent,
但到底一个牛逼的 Agent 背后需要多少组件来构成
好像很少有人讨论。
我们更多的是在谈论模型的牛逼,
却也忽视了同样值得重视的记忆。
人类之所以强大,
不仅仅是因为我们有一个足够聪明的大脑,
还因为我们有记忆,
才能积累经验,形成个性、持续成长。
Agent 又何尝不是如此?
LLM 是一个 Agent 的大脑,记忆就是它的灵魂。
MemMachine 最让我触动的,
是它真的可以记住我。
记住我的偏好、习惯、风格,甚至是那些我从未明确说出口的东西。
也许,明年这个时候,
它就能让 Agent 主动跟我说,:
" 嘿,你去年研究的那个方案和最近看到的这个有点像,要不要回顾一下?"
那才是我真正想要的 Agent,
不止聪明,也更懂我。


