你每次和AI对话——每个决策、每个调试session、每个架构辩论——session结束后就消失了。六个月的工作,没了。每次从零开始。

其他记忆系统试图让AI决定什么值得记住。它提取"用户偏好Postgres",然后丢掉解释为什么的那段对话。

MemPalace用不同思路:存储一切,然后让它可查找。

核心架构:The Palace

古希腊演说家通过把想法放在想象建筑的房间里来记忆整篇演讲。走过建筑,找到想法。MemPalace把这个方法应用到AI记忆:对话被组织成侧翼(人和项目)、大厅(记忆类型)、房间(具体想法)。

没有AI决定什么重要——你保留每个字,结构让它可搜索。这个结构本身就把检索效率提升了34%。

AAAK:30倍无损压缩

AAAK是一种无损的速记方言,不是给人读的——是给AI快速读的。30倍压缩,零信息损失。你的AI可以在约120个token内加载几个月的上下文。

因为AAAK只是带通用语法的结构化文本,它兼容任何读文本的模型——Claude、GPT、Gemini、Llama、Mistral。不需要解码器,不需要微调,不需要云API。用本地模型跑,整个记忆栈完全离线。

基准成绩

在LongMemEval上得分:

指标成绩
LongMemEval R@5 零API调用96.6%
LongMemEval R@5 带Haiku重排100%
宫殿结构检索提升+34%
成本$0

这是迄今为止该基准的最高得分,超越所有免费或付费方案。

如何使用

pip install mempalace

# 初始化你的世界
mempalace init ~/projects/myapp

# 挖掘数据
mempalace mine ~/projects/myapp
mempalace mine ~/chats/ --mode convos

# 搜索你讨论过的任何东西
mempalace search "why did we switch to GraphQL"

三种挖掘模式:projects(代码和文档)、convos(对话导出)、general(自动分类为决策、偏好、里程碑、问题和情感上下文)。所有数据留在本机。

和Claude/ChatGPT/Cursor集成

# 通过MCP连接,一次配置
claude mcp add mempalace -- python -m mempalace.mcp_server

现在你的AI通过MCP获得19个工具。问它任何问题:

"我们上个月关于auth做了什么决定?"

Claude自动调用mempalace_search,获取逐字结果并回答你。你不需要再手动输入mempalace search。AI处理一切。

本地模型也支持

本地模型通常不支持MCP。有两种方式:

唤醒命令:把你的世界加载到模型上下文:

mempalace wake-up > context.txt
# 把context.txt粘贴到本地模型的system prompt

CLI搜索:按需查询,把结果注入prompt:

mempalace search "auth decisions" > results.txt

整个记忆栈完全离线运行——ChromaDB在本地、Llama在本地、AAAK压缩、零云调用。

为什么重要

MemPalace解决了一个根本问题:AI session之间的上下文断层。每次开新session,AI对你一无所知——它不知道你上个月为什么选择那个方案、不知道你和谁吵过架、不知道什么bug困扰了你三周。

有了MemPalace,AI不再从零开始。每次对话都沉淀到记忆系统,未来session自动继承。