Karpathy 的 LLM Wiki 视频评论区最高赞说它"对大部分人基本没用"。独立开发者 Artem 决定认真验证这个说法,用 Ray Dalio 的 Principles 系列做了一次完整的对比实验。
两个方案的架构差异
Karpathy 的 Wiki 三层结构:
- 原始来源(YouTube 字幕、文章、PDF)
- Wiki 本身(Claude 读每个来源,写摘要,抽取人物和概念到独立页面)
- Schema 文件(告诉 Claude 如何组织 Wiki,查询时去哪里找)
Artem 往 Wiki 里导入了 19 个来源,并行摄入大约 20 分钟。然后问了 10 个问题。
结果:每次查询平均消耗 44,000 tokens,10 个问题乘下来,成本迅速失控。Wiki 架构意味着每次问答 Claude 都要重新读取全部文件内容来回答一个问题——没有短期记忆,只有索引文件,无法真正"理解"知识的结构。
NotebookLM 的逻辑完全不同:不做 wiki index,摄入就是 embedding。Google 的 SOTA embedding 模型处理,速度极快,可以放 50 个来源。10 个问题大约一分钟一个答案,且每个答案都有来源引用。
真正的问题:知识存档之后干什么?
Artem 提出的核心质疑:
"我们有了所有这些知识,然后呢?你建了个 wiki,有摘要,有索引。然后呢?你做了什么?"
Wiki 没有与真实世界的集成。你可以问它问题,但也仅此而已。
他的答案是:知识要变成 Skills,Skills 要融入 Routines,Routines 要被执行。
三步闭环:
知识 → Skills → Routines → 执行
以 Dalio 的决策框架为例,他的个人系统是:
- ◎ 知道你的目标
- ⚠ 不要容忍问题
- ⌕ 诊断根本原因
- ◈ 设计计划
- ▸ 执行计划
每天早晨用这个 skill 做决策,而不是"学习"完就放在一边。知识在需要的时候被调用,而不是被存档然后遗忘。
什么时候用哪个?
Artem 的判断:
- Wiki 适合:需要极深度研究的地方,PhD 级别;需要高准确性,可以花 30 分钟摄入一个来源的场景;团队知识库;竞品分析(需要穷尽所有材料,准确性要求高)
- NotebookLM 适合:个人知识管理,不想花一小时为每个主题设置 wiki;快速上手一个话题,不需要维护,不需要预处理
他推荐的组合:NotebookLM + Claude。NotebookLM 负责摄入和综合,Claude 负责找资料加进 notebook,然后在 notebook 里问问题。
Token 成本时代的选择
这篇文章写于 2026 年 4 月,一个明显的信号是"免费 token 时代已经结束"。1 月份 Anthropic 的 token 几乎无限,现在明显收紧。API 用户使用 LLM wiki 方案"绝对不可能"——成本和延迟都受不了。
知识管理工具的选择,正在从"哪个最强大"向"哪个最可持续"迁移。