← 返回 FEED
GITHUB2026-04-23

gremllm:Python 对象按需「幻觉」出方法的运行时实验

Simon Willison 在 X 上分享了 gremllm,称其为"邪恶的"——一个让 Python 对象按需从 LLM 生成方法实现的实验性库。

工作原理

gremllm 对象的每次属性访问和方法调用都不走静态定义,而是路由到 LLM。LLM 接收对象的描述用途(通过构造函数传入的字符串),生成对应的 Python 代码并立即执行:

from gremllm import Gremllm

counter = Gremllm('counter')
counter.increment()      # LLM 生成一个递增实现
counter.get_value()      # LLM 生成一个返回当前值的实现
counter.reset()          # LLM 生成一个重置实现

这些方法都不在代码库中存在。它们在调用时由 LLM 即时创造。

特殊模式

湿模式(wet mode):返回值本身也是 gremllm 对象,允许无限方法链——每一步都触发新的 LLM 推理。

Verbose 模式:打印 LLM 生成的代码,用于理解和调试生成行为。

支持的 LLM

任何通过 Simon Willison 的 llm Python 库支持的模型,包括 GPT-4、Claude 和本地模型。

项目定位

文档明确写道:"请不要在生产中使用这个"。

gremllm 的目标是探索"LLM 作为运行时"这个概念在 Python 对象层面的极端形式:如果不静态定义任何行为,只靠自然语言描述一个对象的用途,它能多可用?

答案是:在简单的有界任务上,出乎意料地可用。

背景

该库由 awwaiid 构建,使用了 Simon Willison 的 llm Python 工具库作为底层。Willison 分享后该项目在 AI/Python 社区引起关注,主要吸引力在于它把 LLM 动态代码生成的能力以一种极具 Python 风格的 API 暴露出来。