你每次和AI对话——每个决策、每个调试session、每个架构辩论——session结束后就消失了。六个月的工作,没了。每次从零开始。
其他记忆系统试图让AI决定什么值得记住。它提取"用户偏好Postgres",然后丢掉解释为什么的那段对话。
MemPalace用不同思路:存储一切,然后让它可查找。
核心架构:The Palace
古希腊演说家通过把想法放在想象建筑的房间里来记忆整篇演讲。走过建筑,找到想法。MemPalace把这个方法应用到AI记忆:对话被组织成侧翼(人和项目)、大厅(记忆类型)、房间(具体想法)。
没有AI决定什么重要——你保留每个字,结构让它可搜索。这个结构本身就把检索效率提升了34%。
AAAK:30倍无损压缩
AAAK是一种无损的速记方言,不是给人读的——是给AI快速读的。30倍压缩,零信息损失。你的AI可以在约120个token内加载几个月的上下文。
因为AAAK只是带通用语法的结构化文本,它兼容任何读文本的模型——Claude、GPT、Gemini、Llama、Mistral。不需要解码器,不需要微调,不需要云API。用本地模型跑,整个记忆栈完全离线。
基准成绩
在LongMemEval上得分:
| 指标 | 成绩 |
|---|---|
| LongMemEval R@5 零API调用 | 96.6% |
| LongMemEval R@5 带Haiku重排 | 100% |
| 宫殿结构检索提升 | +34% |
| 成本 | $0 |
这是迄今为止该基准的最高得分,超越所有免费或付费方案。
如何使用
pip install mempalace
# 初始化你的世界
mempalace init ~/projects/myapp
# 挖掘数据
mempalace mine ~/projects/myapp
mempalace mine ~/chats/ --mode convos
# 搜索你讨论过的任何东西
mempalace search "why did we switch to GraphQL"
三种挖掘模式:projects(代码和文档)、convos(对话导出)、general(自动分类为决策、偏好、里程碑、问题和情感上下文)。所有数据留在本机。
和Claude/ChatGPT/Cursor集成
# 通过MCP连接,一次配置
claude mcp add mempalace -- python -m mempalace.mcp_server
现在你的AI通过MCP获得19个工具。问它任何问题:
"我们上个月关于auth做了什么决定?"
Claude自动调用mempalace_search,获取逐字结果并回答你。你不需要再手动输入mempalace search。AI处理一切。
本地模型也支持
本地模型通常不支持MCP。有两种方式:
唤醒命令:把你的世界加载到模型上下文:
mempalace wake-up > context.txt
# 把context.txt粘贴到本地模型的system prompt
CLI搜索:按需查询,把结果注入prompt:
mempalace search "auth decisions" > results.txt
整个记忆栈完全离线运行——ChromaDB在本地、Llama在本地、AAAK压缩、零云调用。
为什么重要
MemPalace解决了一个根本问题:AI session之间的上下文断层。每次开新session,AI对你一无所知——它不知道你上个月为什么选择那个方案、不知道你和谁吵过架、不知道什么bug困扰了你三周。
有了MemPalace,AI不再从零开始。每次对话都沉淀到记忆系统,未来session自动继承。
记忆系统是Agent的"外脑"。MemPalace的洞见:不要让AI决定什么值得记住(它总会丢东西),而是存储一切+结构化让它可查找。宫殿结构提升34%检索,AAAK实现30倍压缩——这两个设计加在一起,让"记住一切"变成工程上可行的事。