事件经过
2026 年 4 月,Anthropic 曾短暂更新其定价页面,将 Claude Code 从 100/月和 $200/月的 Max 计划中可用。
Anthropic 增长负责人 Amol Avasare 随后发推解释,这只影响了"约 2% 的新 prosumer 注册",属于测试性质。几小时内,公开页面回滚,但据称这一实验以不可见的方式在后台继续运行。
这是背景。但 Simon Willison 今日的文章讨论的,不只是这个具体事件,而是这个事件暴露的一类更深层问题。
四个层面的影响
1. 可及性问题
Claude Code 的当前用户大多数来自高工资国家——硅谷工程师对 100 不会有太大感知。但 Willison 特别指出:对非高收入国家的开发者,或者在校学生、独立开发者来说,100 是一个完全不同的决策门槛。AI 编程工具如果最终只有高薪从业者能用,这个工具的生态就在自我设限。
2. 沟通方式问题
没有官方公告,没有博客,通过一条推文解释定价变更。这种沟通方式本身就传递了一个信号:Anthropic 没有充分考虑这一决定对用户的冲击,或者认为用推文处理就足够了。
对于许多开发者来说,发现定价变更的方式是"别人转发了那条推文"——而不是官方通知。这种偶然性本身令人不安。
3. 学习成本问题
Willison 做 Claude Code 的教程和内容创作,这是他的核心工作之一。他明确指出:如果 Claude Code 的定价存在不确定性,他在制作教学内容时就面临一个实际风险——今天教给别人的工具,明天可能让那些人负担不起。
这不是假设性的担忧。当工具的定价随时可能通过 A/B 测试上调,任何围绕它建立的教学生态都承担着不可预期的风险。
4. 竞争对比问题
OpenAI Codex 的产品团队在这一事件后公开表态,承诺 Codex 将维持在 $20 计划和免费层级可用,并承诺与社区保持透明沟通。
Willison 自己付 $200/月的 Claude Max,对于个人使用层面没有任何抱怨。但从教学和生态建设的角度,他提出了一个实际的选择标准:如果 Codex 能提供更稳定的可及性承诺,他会把教学重心迁移过去。
Willison 的要求
文章的核心诉求只有一条:Anthropic 给出明确且持久的承诺——Claude Code 永久保留在 $20 Pro 计划中,不会被 A/B 测试或定价调整所改变。
这个要求的特殊之处在于:Willison 不是在讨论自己的利益,而是在讨论工具的生态条件。一个工具如果想要建立开发者生态,就必须给开发者一个可以依赖的稳定基础。
更深层的结构性问题
Willison 把这次事件归因于 Anthropic 的"测试文化"——愿意在任何事情上做 A/B 测试,包括会直接冲击用户信任的定价决定。这种做法在消费产品上是标准操作,但在开发者工具上会产生额外的信任损耗。
开发者工具的生态依赖于一种特殊的信任关系:用户愿意在工具上投入学习时间、建立工作流、写教程、推荐给同事——这些投入都基于对工具稳定性的预期。当这种稳定性预期被一次定价实验打破,信任的修复成本远高于一次退款。
Claude Code "定义了这个品类"——这是 Willison 的判断,也是许多人的共识。在品类领导地位上做这样的实验,代价是相应放大的。