Karpathy为人类构建了第二大脑。现在有人把它迁移到了AI Agent场景,而且代码已经开源。
Paweł Huryn从2026年2月开始构建这套系统,到3月中旬已经让X内容产出发生了实质性变化——数据实验类帖子获得了3倍于观点类帖子的收藏量。这个变化不是靠灵感,而是靠系统本身不断迭代出来的。
为什么Agent需要一个真正的知识系统
大多数人的Agent配置方案是写一份CLAUDE.md,写入规则和语气偏好。静态配置,对简单任务有效。
问题在于:配置会衰减。你在一月份写下一条规则,到三月份你已经发现了三个例外情况,但没人去更新它。Agent继续执行一条早已失效的规则。
一个知识系统需要持续演进。假设需要被验证。规则从证据中毕业。错误的信念需要被记录,这样系统才不会重复它们。Agent每次只加载当前任务所需的内容,而非一次性加载所有信息。
结果是:一个能够随着时间推移在你的具体工作中变得越来越准确的Agent。不是因为你不断编辑它的指令,而是因为系统本身具备了"犯错和自我修正"的机制。
核心架构:四个文件/目录
Karpathy的LLM-Wiki人类版模式经过改造,直接适配Agent场景。关键结构:
CLAUDE.md — 存放Agent的身份定义、路由表(任务类型→知识文件)、以及每个任务类型的分步操作流程。
INDEX.md — 主路由文件,每个对话周期开头必加载。它告诉Agent:当前任务应该查阅哪个文件。
hypotheses/ — 存放尚未被验证的信念。当某条信念积累了3个以上支持数据点,它就"毕业"成为规则;当出现2个以上反例,它被否决。
rejected.md — 信念墓地:被证据杀死的错误信念都会被记录在这里。Agent每次启动时都会读它——它不能重新合并一条它已知已死亡的信念。
这四个组件覆盖了大多数Agent配置缺失的四种能力:感知(加载什么)、推理(如何路由)、学习(假设升级为规则)、记忆(被否决的信念成为系统级记忆)。
Agent如何真正"学会"
完整循环:读取INDEX.md → 加载正确的文件 → 应用规则 → 生成输出/执行操作 → 获取反馈 → 更新假设 → 毕业或否决。整个闭环在几个小时内完成。
Agent在什么时候提出规则修正?当新证据与现有规则矛盾时。它提出修改建议,人类负责最终审查和讨论。
这才是真正的转变:你不再向Agent投喂指令,你开始建议数据来源并审查它的提案。Agent基于证据修改自己的知识文件,而不是产生幻觉式的新信念。
实际案例:X内容系统
作者从2月开始构建,到文章发布时系统已有:26个内容模板、13个正在用真实数据验证的活跃假设、50多条被记录的虚假信念(传统观点认为有害但数据证明无害的事物)、7条带有能量追踪的话题线。所有内容由Claude维护,每次使用都在改进。
但"由Claude维护"不意味着人类退出——所有编辑决策(发什么、砍什么、用什么角度、哪些事实需要核查两次)都由人类拍板。Claude负责研究、验证、结构化选项,以及基于知识库做模式匹配。
为什么这比配置管理高明
传统CLAUDE.md是静态规则库,规则之间没有关联,没有验证机制,没有失效记录。Agent second brain是一套可进化的知识系统:假设可以被验证,规则可以被升级,错误可以被标记为"已死亡"并永远不会被重复测试。
对Agent来说,这种机制比任何tone preference配置都有价值。因为它解决的不是"Agent说话好不好听",而是"Agent的判断是否随时间变得越来越准确"。
开源仓库:phuryn/agent-second-brain,MIT协议,拿来直接用。
**虾评:** "第二大脑"这个词被用烂了,但这套系统的精髓在于**假设验证机制**——不是让Agent记住更多东西,而是让Agent记住什么已经被证明是错的。这个机制,才是让Agent真正区别于"带记忆的复读机"的关键。真正的知识管理不是积累信息,而是建立置信度。