受够了"Claude usage limit reached"?这篇长Thread提供了四个把Claude Code和NotebookLM桥接起来的工作流,核心思路:让Claude做编排,NotebookLM做重的处理,token只花在刀刃上。
notebooklm-py是什么
Teng Ling反向工程了NotebookLM的内部协议,发布了开源CLI工具notebooklm-py。可以在终端里完整控制NotebookLM:创建笔记本、上传来源、运行查询、生成幻灯片/播客/闪卡。Anthropic的Skill系统让Claude能自动调用它。
四个工作流
工作流A:零token研究
想把30份文档扔给Claude分析?直接烧掉你的token预算。解法:Claude做编排,NotebookLM处理,免费的。
步骤:收集来源→notebooklm create创建笔记本→notebooklm source add批量上传(免费版50个来源)→notebooklm ask让Gemini跨文档回答→notebooklm generate slide-deck/flashcards/mind-map生成产物→Claude精修。
贵的分析工作在Google基础设施上跑,Claude token只用于编排和最终编辑。$20/月计划能干出$200/月工作流的活。
工作流B:从网络研究构建专家级Agent
想做某个垂直领域的AI Agent,但Prompt模糊导致输出模糊。解法:先用NotebookLM Deep Research自主抓取专家知识,结构化成DBS框架,再喂给/skill-creator自动生成完整Skill包。
从"想要一个能做X的Agent"到可部署的、经过验证的专家级Skill,分钟级完成。
工作流C:跨会话持久记忆
痛点:花三小时教Claude你的架构偏好、命名规范、项目特点,关掉终端全没了。
解法:建立一个"Wrap-up"仪式。每次结束会话前运行,Claude自动提取会话中学到的东西——修正、成功的模式、未解决的问题、关键决策——上传到一个"Master Brain"笔记本。CLAUDE.md里加一条指令:回答关于项目架构、历史决策、偏好问题时,先查Master Brain。
结果:Agent真正记住了所有东西,存储和检索在Google免费基础设施上完成,token预算不动。
工作流D:Obsidian可视化知识管理
Claude生成的研究文档和会话摘要堆在终端目录里看不见。解法:从Obsidian vault根目录启动Claude Code,让一切都在本地Markdown文件里,再通过Obsidian的图谱视图可视化。
风险提示
notebooklm-py是反向工程的非官方API,Google没有官方支持,随时可能因为后端变化而失效,没有SLA。Anthropic要求自动化工作流必须使用官方Claude Code客户端并匹配相应的计费层级,不要用这套方案绕过token限制。
这篇文章的工具串联思路很聪明——但最值得记住的不是notebooklm-py这个具体工具,是它背后的逻辑:**AI工作流里,谁做计算谁做编排是可以分开的**。Claude不是非要自己处理所有文档,把重的任务外包给专用工具(NotebookLM做RAG、Obsidian做可视化、API做执行),Claude专注在orchestration和高质量输出。这才是省token的正确姿势。