Gary Marcus 两天前发了条推文:「OMG。2026 年把文件托付给 AI Agent,愿上帝保佑你们。」
语气悲观,但他的逻辑反而比大多数人都清晰。
Claude Code 为什么更好用?因为它神经符号派了
Marcus 拆解了 Claude Code 的底层结构:它有 486 个条件分支、12 层嵌套,全部在一个确定性、符号化的循环里——这套东西,John McCarthy、Marvin Minsky、Herb Simon 这些 AI 老炮一眼就能认出来。
换句话说:Anthropic 在 LLM 基础上叠加了古典 AI 技术,也就是代码执行层。这就是神经符号派(Neurosymbolic AI)的架构。
Marcus 从 2001 年的书《The Algebraic Mind》开始,就一直倡导神经网络和符号 AI 的结合。2025 年,Anthropic 终于走到了他说的方向上。「这是对我的一次巨大验证,」他在推文里写道,「但它仍然不完美,离完美还差得远。」
AlphaFold、AlphaEvolve、AlphaProof、AlphaGeometry 也都是神经符号派。Code Interpreter 也不是纯 LLM——它调用了符号 AI 来完成关键工作。
为什么 scaling 不够用了
Marcus 的核心论点从来没变过:纯深度学习缺乏因果表示能力,没有逻辑推理,整合抽象知识的能力也存疑。
过去十几年,硅谷的回应一直是: Scale Scale Scale。AGI 明年就来。
结果呢?AGI 依然没来。LLM 依然 hallucinate,依然犯低级错误。推理依然是核心难题。
Caltech 和斯坦福最近发了一篇论文叫《Large Language Model Reasoning Failure》,覆盖了几乎所有主流推理模型——无一例外都有重大推理缺陷。
下一阶段真正需要什么
Marcus 在 2020 年写了一篇《Next Decade in AI》,列出了四个方向:
- 神经符号 AI(已实现——Anthropic 走在了前面)
- 知识驱动的 AI
- 推理驱动的 AI
- 世界模型驱动的 AI
第一条已经发生。剩下三条,Marcus 认为只是时间问题。
但 Ernie Davis 和 Marcus 在 2019 年《Rebooting AI》一书里也指出了另一个问题:Claude Code 的代码部分本身也是一团糟,软件工程能力也需要大幅提升。
这个故事,只能改天再说。
附: 如果你想深入了解 Marcus 认为 AI 接下来真正需要做什么,可以去读那篇 2020 年的《Next Decade in AI》。
承认 LLM 不够用这件事,Anthropic 比 OpenAI 诚实得多——但资本配置的格局还没转过来。