大多数开发团队每个 session 要花 30-40 分钟重新向 Claude 解释上下文。这叫"Context Amnesia"——每次开新对话,AI 就像第一次约会一样什么都不记得。
大多数人的第一反应是:"我们需要更大的上下文窗口。"
这是错的。
真正的解决方案是一套三层叠加记忆系统,把项目 DNA、个人知识图谱和外部研究永久编织成一个活的、可搜索的大脑。作者运行这套系统九个月,上下文重建时间减少了约 85%,Claude 从一个聪明的自动补全变成了真正了解你技术栈、标准和长期目标的资深协作者。
第一层:文件结构——分离关注点
不要把 AI 生成的内容直接扔进 Obsidian 笔记库——那会污染你的知识图谱,让语义搜索变得很吵。
维护两个平行世界:
~/
├── claude/ # "工作"文件夹(AI 密集)
│ ├── github/ # 仓库、PRD、架构决策记录
│ ├── meeting-notes/ # Zoom/Granola/Fireflies 原始转录
│ └── .claude/ # 隐藏的项目级记忆(自动管理)
│ └── projects/<hash>/
│ └── memory/
│ └── MEMORY.md # Claude 自己进化的学习记录
└── obsidian-vault/ # "大脑"(人类优先,高信号)
├── 01-polaris/ # 战略、目标、Life Razors
02-logs/ # 每日草稿和周回顾
├── 03-commonplace/ # 原子笔记、常青想法、技术深潜
├── 04-outputs/ # 已发布草稿、博文、X 线程
└── inbox/ # 摄入内容的临时着陆区
这个分离的核心逻辑:
- Obsidian 图谱保持纯净、人类管理
- Claude 通过 Model Context Protocol(MCP)仍可读写两个文件夹
- 信噪比始终极高
第二层:Session 记忆(CLAUDE.md + Auto-Memory)
CLAUDE.md 放在每个仓库根目录,是 Claude 每个新 session 读取的第一个文件。
启动方式:
- 在仓库里运行
/init命令(自定义 Claude 命令) - Claude 自动扫描整个代码库,生成约 80% 的文档
- 你手动补充三个部分:
Nouns(名词)——技术栈、文件夹结构、关键抽象、架构模式。Verbs(动词)——具体构建命令、测试脚本、部署流程、lint 规则。Boundaries & Principles(边界与原则)——硬性规则,如"React 组件禁止使用 default export"、"始终用 Zod 做 schema 验证"、"所有 API 响应必须用 TypeScript 接口类型化"。
开启 Auto-Memory 后,Claude 会在 ~/.claude/projects/<project-hash>/memory/MEMORY.md 里写入自己的学习记录。例如一次 session 后它可能写:
"通过将订阅逻辑移入带正确清理的 useEffect,修复了 useWebSocket hook 里的竞态条件。确认重连逻辑现在可以承受热重载。不要重新引入旧的 setInterval 模式。"
这一行笔记,下周能省你 10+ 分钟。
第三层:知识图谱(Obsidian + MCP Bridge)
这是系统真正变得超能力的地方——用 Model Context Protocol 把 Claude 直接连接到你的 Obsidian 保险库。
两个关键工具:
- Smart-Connections MCP:对整个保险库做语义/向量搜索。Claude 可以问"找出所有与认证模式相关的笔记",即使你从未用过精确关键词,也能得到有意义的结果。
- QMD(Query Markup Documents):极速混合搜索,理解 wikilink、别名和精确代码片段。需要六个月前那个 Docker Compose 配置?QMD 可以精准找到。
MCP 配置文件(~/.claude/mcp-servers.json):
{
"mcpServers": {
"qmd": {
"command": "qmd",
"args": ["mcp"]
},
"smart-connections": {
"command": "node",
"args": ["/absolute/path/to/smart-connections-mcp/dist/index.js"],
"env": {
"SMART_VAULT_PATH": "~/obsidian-vault",
"OBSIDIAN_API_KEY": "your-key-if-needed"
}
}
}
}
桥接之后,Claude 可以实时遍历你的整个第二大脑。不再是猜测——是读心。
第四层:摄入管道(把噪音变成信号)
大多数高价值知识以 YouTube 视频、PDF、播客或论文的形式到来。作者用本地工具 brain-ingest(隐私优先,下载后完全离线运行)做摄入:
brain-ingest "URL" --enrich --vault ~/obsidian-vault
底层发生了什么:
- 本地转录(基于 Whisper)
- LLM 提取 Claims、Framework、Action Items 和 Open Questions
- 自动 wikilink 到现有笔记
- 干净的 Markdown 文件落入 inbox/,带正确的 frontmatter 和标签
作者在 60 秒内审查笔记,判断是否属于常青内容而移入 03-commonplace/。复利效应惊人——你消费的每一小时内容都变成了 Claude 可搜索的记忆。
Polaris 策略:把 Claude 变成问责伙伴
在 01-polaris/Top of Mind.md 里维护一份活的文档,包含:
- 当前季度目标(Q2 2026)
- 活跃项目和成功标准
- "Life Razors"——不可协商的原则(如"Ship before perfect"、"Write the docs first"、"永远不故意增加技术债")
每次开始新功能或重构,开场白是:
"先读一下我的 Top of Mind note。评估这个新 auth flow 如何符合我 Q2 关于减少认知负担和提高交付速度的目标。任何方向偏差请指出并提出调整建议。"
Claude 现在会在你即将做出违背自己既定方向的决策时提出异议。这就像有一个永不忘记一月协议的联合创始人。
三层记忆系统的叠加回报
三个月后你会注意到一个有趣的现象:Claude 开始预判你的需求。它会在你没有提示的情况下引用六周前你写的笔记。它在架构漂移发生之前就捕获它。它成为团队里知识最全面的人——因为它实际上可以访问你曾经思考、构建或学习过的一切。
记忆不再是功能,它是注意力的操作系统。
2026 年,赢家不是提示最快的人,而是构建了最值得遍历图谱的人。
三层记忆架构的本质是让 AI 具备项目级的长期一致性,而不是每次 session 从零开始。这套方法论的真正价值不在于某个工具(Obsidian / MCP),而在于把"上下文重建"从人类手动做变成了 AI 自动做——减少了 85% 的重复劳动,这才是 Agent 协作效率的核心指标。