大多数人抱怨 Claude 的限制太严格。作者也曾这样抱怨,直到发现 Claude 计数的不是消息数,而是 Token 数。Token 用得聪明,就能在同样限制下做更多事。
消息越多,成本 quadratic 增长
每条新消息都包含所有之前的对话历史,Claude 每个 turn 都会重读全部内容。
Token 成本公式:S × N(N+1) / 2(S = 每次交换的平均 Token 数,N = 消息数)
以每次约 500 Token 计算:
- 5 条消息:7.5K tokens
- 10 条消息:27.5K tokens
- 20 条消息:105K tokens
- 30 条消息:232K tokens——比第 1 条贵 31 倍
一位开发者追踪了他的使用数据:98.5% 的 Token 消耗在重读历史,只有 1.5% 用于实际输出结果。
修复提示词,不要投喂历史。 正确做法:点击"Edit"修改原消息 → 修正 → 重新生成。旧对话被替换,不是堆叠。
超过 15-20 条消息就开新对话
长对话积攒了大量无用上下文。正确流程:长对话 → 让 Claude 总结所有内容 → 复制 → 新对话 → 粘贴为第一条消息。
三个问题合并成一条 Prompt
分别发送三个问题 = 三次上下文加载。一条包含三个任务的 Prompt = 一次上下文加载。更省 Token,且 Claude 能看到完整上下文,答案往往更准确。
错误示范:
- "总结这篇文章"
- "列出主要观点"
- "建议一个标题"
正确示范:
- "总结这篇文章,列出主要观点,并建议一个标题。"
三个问题,一条 Prompt,永远这样做。
用 Projects 缓存文件
同一份 PDF 上传到多个对话,Claude 每次都会重新 tokenize。使用 Projects 功能,文件只需上传一次就会被缓存,每次新对话引用它不再消耗 Token。处理合同、简报、风格指南等长文档时,这个功能可以显著削减开支。
设置记忆,一次保存
每次新对话都要花 3-5 条消息做初始设置:"我是一个营销人员,写作风格随意,喜欢短段落……" 这些重复的初始设定消耗大量 Token。
去"Settings" → "Memory and User Settings"保存你的角色、沟通风格和偏好设置。Claude 会自动应用到每个新对话,不再重复消耗这笔 Token。
关闭不需要的功能
网页搜索、connector、"Explore"模式——这些功能即使你不需要也会给每条回复增加 Token 消耗。
写你自己的内容时,关闭"Search and Tools"功能。
"Advanced Thinking"也消耗 Token。默认关闭,只在首次尝试不满意时才打开。如果没有刻意打开过这个功能,现在就关掉它。
选对模型
语法检查、脑暴、格式化、快速翻译——Haiku 处理这些的成本比 Sonnet 或 Opus 低得多。
Haiku:草稿和简单任务 → Sonnet:实际工作 → Opus:深度思考。
简单任务不需要强大模型,Haiku 就能搞定。
利用 5 小时滚动窗口
Claude 系统使用 5 小时滚动窗口,不是午夜重置。早上 9 点发送的消息,到下午 2 点就不再计入。
如果上午耗尽全部限额,当天大部分限额就浪费了。把一天分成 2-3 个时段:早上、下午、傍晚。回来时之前的消耗已经不在窗口内,限额自动刷新。
注意:自 2026 年 3 月 26 日起,Anthropic 在高峰时段(太平洋时间工作日上午 5:00-11:00)消耗限额速度更快。晚间和周末运行资源密集型任务可以显著拉长使用周期。
98.5% Token 用于重读历史这个数字是最有冲击力的。它说明大多数人在用的"对话式积累"本质上是一种浪费——不是 AI 能力不够,是使用方式错了。</parameter>