跳转到主要内容

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

OpenClaw 可以在 API 提供商不可用、受到速率限制或临时异常时,将 本地 AI CLI 作为纯文本回退运行。这个设计有意保持保守:
  • OpenClaw 工具不会直接注入,但带有 bundleMcp: true 的后端可以通过 loopback MCP 桥接接收 Gateway 网关工具。
  • 支持它的 CLI 可使用 JSONL 流式传输
  • 支持会话(因此后续轮次会保持连贯)。
  • 如果 CLI 接受图片路径,可以传递图片
它的设计定位是安全兜底,而不是主路径。当你想要“不依赖外部 API 也始终可用”的文本响应时使用它。 如果你想要带 ACP 会话控制、后台任务、线程/对话绑定和持久外部编码会话的完整 harness 运行时,请改用 ACP 智能体。CLI 后端不是 ACP。

适合初学者的快速开始

你可以无需任何配置使用 Codex CLI(内置 OpenAI 插件会注册默认后端):
openclaw agent --message "hi" --model codex-cli/gpt-5.5
如果你的 Gateway 网关在 launchd/systemd 下运行且 PATH 很精简,只需添加命令路径:
{
  agents: {
    defaults: {
      cliBackends: {
        "codex-cli": {
          command: "/opt/homebrew/bin/codex",
        },
      },
    },
  },
}
这样就可以了。除了 CLI 本身之外,不需要密钥,也不需要额外的鉴权配置。 如果你在 Gateway 网关主机上将内置 CLI 后端用作主要消息提供商,当你的配置在模型引用中或在 agents.defaults.cliBackends 下显式引用该后端时,OpenClaw 现在会自动加载拥有该后端的内置插件。

将其用作回退

将 CLI 后端加入你的回退列表,这样它只会在主要模型失败时运行:
{
  agents: {
    defaults: {
      model: {
        primary: "anthropic/claude-opus-4-6",
        fallbacks: ["codex-cli/gpt-5.5"],
      },
      models: {
        "anthropic/claude-opus-4-6": { alias: "Opus" },
        "codex-cli/gpt-5.5": {},
      },
    },
  },
}
注意:
  • 如果你使用 agents.defaults.models(允许列表),也必须把你的 CLI 后端模型包含进去。
  • 如果主要提供商失败(鉴权、速率限制、超时),OpenClaw 会接着尝试 CLI 后端。

配置概览

所有 CLI 后端都位于:
agents.defaults.cliBackends
每个条目都以提供商 id 为键(例如 codex-climy-cli)。 提供商 id 会成为你的模型引用左侧:
<provider>/<model>

配置示例

{
  agents: {
    defaults: {
      cliBackends: {
        "codex-cli": {
          command: "/opt/homebrew/bin/codex",
        },
        "my-cli": {
          command: "my-cli",
          args: ["--json"],
          output: "json",
          input: "arg",
          modelArg: "--model",
          modelAliases: {
            "claude-opus-4-6": "opus",
            "claude-sonnet-4-6": "sonnet",
          },
          sessionArg: "--session",
          sessionMode: "existing",
          sessionIdFields: ["session_id", "conversation_id"],
          systemPromptArg: "--system",
          // For CLIs with a dedicated prompt-file flag:
          // systemPromptFileArg: "--system-file",
          // Codex-style CLIs can point at a prompt file instead:
          // systemPromptFileConfigArg: "-c",
          // systemPromptFileConfigKey: "model_instructions_file",
          systemPromptWhen: "first",
          imageArg: "--image",
          imageMode: "repeat",
          serialize: true,
        },
      },
    },
  },
}

工作方式

  1. 根据提供商前缀(codex-cli/...选择后端
  2. 使用相同的 OpenClaw 提示词 + 工作区上下文构建系统提示词
  3. 使用会话 id(如果支持)执行 CLI,以便历史保持一致。 内置 claude-cli 后端会为每个 OpenClaw 会话保持一个 Claude stdio 进程存活,并通过 stream-json stdin 发送后续轮次。
  4. 解析输出(JSON 或纯文本)并返回最终文本。
  5. 按后端持久化会话 id,因此后续轮次会复用相同的 CLI 会话。
内置 Anthropic claude-cli 后端已再次受支持。Anthropic 员工告诉我们,OpenClaw 式 Claude CLI 用法已再次允许,因此除非 Anthropic 发布新政策,否则 OpenClaw 会将 claude -p 用法视为此集成中获得认可的用法。
内置 OpenAI codex-cli 后端会通过 Codex 的 model_instructions_file 配置覆盖(-c model_instructions_file="...")传递 OpenClaw 的系统提示词。Codex 不暴露 Claude 式 --append-system-prompt 标志,因此 OpenClaw 会为每个新的 Codex CLI 会话将组装好的提示词写入临时文件。 内置 Anthropic claude-cli 后端通过两种方式接收 OpenClaw Skills 快照:追加到系统提示词中的紧凑 OpenClaw Skills 目录,以及通过 --plugin-dir 传入的临时 Claude Code 插件。该插件只包含该智能体/会话可用的 Skills,因此 Claude Code 的原生技能解析器会看到与 OpenClaw 原本会在提示词中公布的相同过滤集合。Skill 环境/API 密钥覆盖仍由 OpenClaw 应用到本次运行的子进程环境中。 Claude CLI 也有自己的非交互权限模式。OpenClaw 将其映射到现有 exec 策略,而不是添加 Claude 专用配置:当有效请求的 exec 策略是 YOLO(tools.exec.security: "full"tools.exec.ask: "off")时,OpenClaw 会添加 --permission-mode bypassPermissions。每个智能体的 agents.list[].tools.exec 设置会覆盖该智能体的全局 tools.exec。要强制使用不同的 Claude 模式,请在 agents.defaults.cliBackends.claude-cli.args 及匹配的 resumeArgs 下设置显式原始后端参数,例如 --permission-mode default--permission-mode acceptEdits 内置 Anthropic claude-cli 后端还会将 OpenClaw /think 级别映射到 Claude Code 原生 --effort 标志(非 off 级别)。minimallow 映射到 lowadaptivemedium 映射到 medium,而 highxhighmax 直接映射。其他 CLI 后端需要其所属插件先声明等效的 argv 映射器,/think 才能影响生成的 CLI。 在 OpenClaw 可以使用内置 claude-cli 后端之前,Claude Code 本身必须已经在同一主机上登录:
claude auth login
claude auth status --text
openclaw models auth login --provider anthropic --method cli --set-default
仅当 claude 二进制文件尚未位于 PATH 上时,才使用 agents.defaults.cliBackends.claude-cli.command

会话

  • 如果 CLI 支持会话,请设置 sessionArg(例如 --session-id)或 sessionArgs(占位符 {sessionId}),当 ID 需要插入多个标志时使用。
  • 如果 CLI 使用带不同标志的恢复子命令,请设置 resumeArgs(恢复时替代 args)并可选设置 resumeOutput (用于非 JSON 恢复)。
  • sessionMode
    • always:始终发送会话 id(如果没有存储,则生成新的 UUID)。
    • existing:只有之前存储过会话 id 时才发送。
    • none:从不发送会话 id。
  • claude-cli 默认使用 liveSession: "claude-stdio"output: "jsonl"、 和 input: "stdin",因此后续轮次会在活动期间复用实时 Claude 进程。现在 warm stdio 是默认值,包括省略传输字段的自定义配置。如果 Gateway 网关重启或空闲进程退出,OpenClaw 会从已存储的 Claude 会话 id 恢复。恢复前,已存储的会话 id 会根据现有可读项目 transcript 验证,因此幽灵绑定会以 reason=transcript-missing 清除,而不是在 --resume 下静默启动新的 Claude CLI 会话。
  • Claude 实时会话保留有界 JSONL 输出保护。默认每轮最多允许 8 MiB 和 20,000 行原始 JSONL。工具密集的 Claude 轮次可以通过 agents.defaults.cliBackends.claude-cli.reliability.outputLimits.maxTurnRawCharsmaxTurnLines 按后端提高限制;OpenClaw 会将这些设置限制在 64 MiB 和 100,000 行以内。
  • 已存储的 CLI 会话是提供商拥有的连续性。隐式每日会话重置不会截断它们;/reset 和显式 session.reset 策略仍然会截断。
序列化注意事项:
  • serialize: true 会保持同一通道运行按顺序执行。
  • 大多数 CLI 会在一个提供商通道上序列化。
  • 当所选鉴权身份发生变化时,OpenClaw 会丢弃已存储 CLI 会话复用,包括鉴权配置文件 id、静态 API key、静态令牌,或 CLI 暴露的 OAuth 账号身份发生变化。OAuth 访问令牌和刷新令牌轮换不会截断已存储 CLI 会话。如果某个 CLI 不暴露稳定的 OAuth 账号 id,OpenClaw 会让该 CLI 强制执行恢复权限。

来自 claude-cli 会话的回退前导内容

claude-cli 尝试故障转移到 agents.defaults.model.fallbacks 中的非 CLI 候选项时,OpenClaw 会用从 ~/.claude/projects/ 的 Claude Code 本地 JSONL transcript 中提取的上下文前导内容为下一次尝试播种。如果没有这个种子,回退提供商会冷启动,因为 OpenClaw 自己的会话 transcript 对 claude-cli 运行来说是空的。
  • 前导内容优先使用最新的 /compact 摘要或 compact_boundary 标记,然后在字符预算内追加边界之后最近的轮次。边界之前的轮次会被丢弃,因为摘要已经代表了它们。
  • 工具块会合并为紧凑的 (tool call: name)(tool result: …) 提示,以如实控制提示词预算。如果摘要溢出,会标记为 (truncated)
  • 同提供商的 claude-cliclaude-cli 回退依赖 Claude 自己的 --resume,并跳过前导内容。
  • 这个种子复用现有 Claude 会话文件路径验证,因此不能读取任意路径。

图片(透传)

如果你的 CLI 接受图片路径,请设置 imageArg
imageArg: "--image",
imageMode: "repeat"
OpenClaw 会将 base64 图片写入临时文件。如果设置了 imageArg,这些路径会作为 CLI 参数传递。如果缺少 imageArg,OpenClaw 会将文件路径追加到提示词(路径注入),这对会从纯路径自动加载本地文件的 CLI 已经足够。

输入 / 输出

  • output: "json"(默认)会尝试解析 JSON 并提取文本 + 会话 id。
  • 对于 Gemini CLI JSON 输出,当 usage 缺失或为空时,OpenClaw 会从 response 读取回复文本,并从 stats 读取用量。
  • output: "jsonl" 会解析 JSONL 流(例如 Codex CLI --json),并提取最终智能体消息以及存在的会话标识符。
  • output: "text" 会将 stdout 视为最终响应。
输入模式:
  • input: "arg"(默认)会将提示词作为最后一个 CLI 参数传递。
  • input: "stdin" 会通过 stdin 发送提示词。
  • 如果提示词很长且设置了 maxPromptArgChars,则会使用 stdin。

默认值(插件拥有)

内置 OpenAI 插件还会为 codex-cli 注册默认值:
  • command: "codex"
  • args: ["exec","--json","--color","never","--sandbox","workspace-write","--skip-git-repo-check"]
  • resumeArgs: ["exec","resume","{sessionId}","-c","sandbox_mode=\"workspace-write\"","--skip-git-repo-check"]
  • output: "jsonl"
  • resumeOutput: "text"
  • modelArg: "--model"
  • imageArg: "--image"
  • sessionMode: "existing"
内置 Google 插件还会为 google-gemini-cli 注册默认值:
  • command: "gemini"
  • args: ["--output-format", "json", "--prompt", "{prompt}"]
  • resumeArgs: ["--resume", "{sessionId}", "--output-format", "json", "--prompt", "{prompt}"]
  • imageArg: "@"
  • imagePathScope: "workspace"
  • modelArg: "--model"
  • sessionMode: "existing"
  • sessionIdFields: ["session_id", "sessionId"]
前提条件:本地 Gemini CLI 必须已安装,并能在 PATH 上作为 gemini 使用(brew install gemini-clinpm install -g @google/gemini-cli)。 Gemini CLI JSON 注意事项:
  • 回复文本从 JSON response 字段读取。
  • usage 缺失或为空时,用 stats 作为后备。
  • stats.cached 会规范化为 OpenClaw cacheRead
  • 如果缺少 stats.input,OpenClaw 会从 stats.input_tokens - stats.cached 推导输入 token。
仅在需要时覆盖(常见情况:绝对 command 路径)。

插件拥有的默认值

CLI 后端默认值现在属于插件表面的一部分:
  • 插件通过 api.registerCliBackend(...) 注册它们。
  • 后端 id 会成为模型引用中的提供商前缀。
  • agents.defaults.cliBackends.<id> 中的用户配置仍会覆盖插件默认值。
  • 后端专属的配置清理通过可选的 normalizeConfig 钩子继续由插件负责。
需要细小提示词/消息兼容性垫片的插件,可以声明双向文本转换,而无需替换提供商或 CLI 后端:
api.registerTextTransforms({
  input: [
    { from: /red basket/g, to: "blue basket" },
    { from: /paper ticket/g, to: "digital ticket" },
    { from: /left shelf/g, to: "right shelf" },
  ],
  output: [
    { from: /blue basket/g, to: "red basket" },
    { from: /digital ticket/g, to: "paper ticket" },
    { from: /right shelf/g, to: "left shelf" },
  ],
});
input 会重写传递给 CLI 的系统提示词和用户提示词。output 会在 OpenClaw 处理自己的控制标记和渠道投递之前,重写流式传输的助手增量和解析后的最终文本。 对于会输出与 Claude Code stream-json 兼容 JSONL 的 CLI,请在该后端的配置中设置 jsonlDialect: "claude-stream-json"

捆绑 MCP 覆盖层

CLI 后端不会直接接收 OpenClaw 工具调用,但后端可以通过 bundleMcp: true 选择启用生成的 MCP 配置覆盖层。 当前内置行为:
  • claude-cli:生成严格 MCP 配置文件
  • codex-cli:对 mcp_servers 使用内联配置覆盖;生成的 OpenClaw 回环服务器会标记 Codex 的按服务器工具审批模式, 因此 MCP 调用不会因本地审批提示而停滞
  • google-gemini-cli:生成 Gemini 系统设置文件
启用捆绑 MCP 后,OpenClaw 会:
  • 启动一个向 CLI 进程暴露 Gateway 网关工具的回环 HTTP MCP 服务器
  • 使用按会话 token(OPENCLAW_MCP_TOKEN)验证桥接
  • 将工具访问限定到当前会话、账号和渠道上下文
  • 为当前工作区加载已启用的捆绑 MCP 服务器
  • 将它们与任何现有的后端 MCP 配置/设置形状合并
  • 使用所属插件提供的、由后端负责的集成模式重写启动配置
如果未启用任何 MCP 服务器,当后端选择启用捆绑 MCP 时,OpenClaw 仍会注入严格配置, 以便后台运行保持隔离。 会话范围的捆绑 MCP 运行时会在会话内缓存以便复用,然后在空闲 mcp.sessionIdleTtlMs 毫秒后回收(默认 10 分钟;设置为 0 可禁用)。一次性嵌入式运行(例如凭证探测、 slug 生成和主动记忆回忆请求)会在运行结束时清理,确保 stdio 子进程和 Streamable HTTP/SSE 流不会超过该次运行的生命周期。

限制

  • 没有直接的 OpenClaw 工具调用。 OpenClaw 不会把工具调用注入 CLI 后端协议。只有当后端选择启用 bundleMcp: true 时,后端才会看到 Gateway 网关工具。
  • 流式传输由后端决定。 某些后端会流式传输 JSONL;其他后端会缓冲到退出。
  • 结构化输出取决于 CLI 的 JSON 格式。
  • Codex CLI 会话通过文本输出恢复(没有 JSONL),这比初始的 --json 运行结构化程度更低。OpenClaw 会话仍可正常工作。

故障排除

  • 找不到 CLI:将 command 设置为完整路径。
  • 模型名称错误:使用 modelAliasesprovider/model 映射到 CLI 模型。
  • 没有会话连续性:确保已设置 sessionArg,且 sessionMode 不是 none(Codex CLI 目前无法使用 JSON 输出恢复)。
  • 图片被忽略:设置 imageArg(并验证 CLI 支持文件路径)。

相关