跳转到主要内容

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

它的作用

  • 任意入站正文中的内联指令:/t <level>/think:<level>/thinking <level>
  • 级别(别名):off | minimal | low | medium | high | xhigh | adaptive | max
    • minimal → “思考”
    • low → “认真思考”
    • medium → “更认真地思考”
    • high → “超深度思考”(最大预算)
    • xhigh → “超深度思考+”(GPT-5.2+ 和 Codex 模型,以及 Anthropic Claude Opus 4.7 effort)
    • adaptive → 由提供商管理的自适应思考(Anthropic/Bedrock 上的 Claude 4.6、Anthropic Claude Opus 4.7 和 Google Gemini 动态思考支持)
    • max → 提供商最大推理(Anthropic Claude Opus 4.7;Ollama 会将其映射到其最高原生 think effort)
    • x-highx_highextra-highextra highextra_high 映射到 xhigh
    • highest 映射到 high
  • 提供商说明:
    • 思考菜单和选择器由提供商配置文件驱动。提供商插件会声明所选模型的确切级别集合,包括诸如二元 on 这样的标签。
    • adaptivexhighmax 只会针对支持它们的提供商/模型配置文件展示。对不支持级别输入的指令会被拒绝,并返回该模型的有效选项。
    • 现有已存储的不支持级别会按提供商配置文件排名重新映射。在非自适应模型上,adaptive 会回退到 medium,而 xhighmax 会回退到所选模型支持的最大非 off 级别。
    • Anthropic Claude 4.6 模型在未设置显式思考级别时默认使用 adaptive
    • Anthropic Claude Opus 4.7 不默认使用自适应思考。除非你显式设置思考级别,否则其 API effort 默认值仍由提供商拥有。
    • Anthropic Claude Opus 4.7 会将 /think xhigh 映射到自适应思考加 output_config.effort: "xhigh",因为 /think 是思考指令,而 xhigh 是 Opus 4.7 的 effort 设置。
    • Anthropic Claude Opus 4.7 也公开 /think max;它映射到同一条提供商拥有的最大 effort 路径。
    • 直连 DeepSeek V4 模型公开 /think xhigh|max;两者都会映射到 DeepSeek reasoning_effort: "max",而较低的非 off 级别会映射到 high
    • 通过 OpenRouter 路由的 DeepSeek V4 模型公开 /think xhigh 并发送 OpenRouter 支持的 reasoning_effort 值。已存储的 max 覆盖会回退到 xhigh
    • 支持思考的 Ollama 模型公开 /think low|medium|high|maxmax 会映射到原生 think: "high",因为 Ollama 的原生 API 接受 lowmediumhigh effort 字符串。
    • OpenAI GPT 模型会通过模型特定的 Responses API effort 支持来映射 /think。只有目标模型支持时,/think off 才会发送 reasoning.effort: "none";否则 OpenClaw 会省略已禁用的推理载荷,而不是发送不支持的值。
    • 自定义 OpenAI 兼容目录条目可以通过设置 models.providers.<provider>.models[].compat.supportedReasoningEfforts 使其包含 "xhigh" 来选择加入 /think xhigh。这会使用同一套用于映射出站 OpenAI 推理 effort 载荷的兼容元数据,因此菜单、会话校验、智能体 CLI 和 llm-task 都会与传输行为保持一致。
    • 过期配置的 OpenRouter Hunter Alpha 引用会跳过代理推理注入,因为该已退役路由可能通过推理字段返回最终答案文本。
    • Google Gemini 会将 /think adaptive 映射到 Gemini 由提供商拥有的动态思考。Gemini 3 请求会省略固定的 thinkingLevel,而 Gemini 2.5 请求会发送 thinkingBudget: -1;固定级别仍会映射到该模型家族最接近的 Gemini thinkingLevel 或预算。
    • Anthropic 兼容流式路径上的 MiniMax (minimax/*) 默认使用 thinking: { type: "disabled" },除非你在模型参数或请求参数中显式设置思考。这可避免 MiniMax 非原生 Anthropic 流格式泄漏 reasoning_content 增量。
    • Z.AI (zai/*) 只支持二元思考(on/off)。任何非 off 级别都会被视为 on(映射到 low)。
    • Moonshot (moonshot/*) 会将 /think off 映射到 thinking: { type: "disabled" },并将任何非 off 级别映射到 thinking: { type: "enabled" }。启用思考时,Moonshot 只接受 tool_choice auto|none;OpenClaw 会将不兼容的值规范化为 auto

解析顺序

  1. 消息上的内联指令(仅应用于该消息)。
  2. 会话覆盖(通过发送仅包含指令的消息设置)。
  3. 每个智能体默认值(配置中的 agents.list[].thinkingDefault)。
  4. 全局默认值(配置中的 agents.defaults.thinkingDefault)。
  5. 回退:有可用的提供商声明默认值时使用该默认值;否则,支持推理的模型会解析为 medium,或该模型最接近的受支持非 off 级别,而非推理模型保持 off

设置会话默认值

  • 发送一条仅包含该指令的消息(允许空白),例如 /think:medium/t high
  • 这会对当前会话生效(默认按发送者区分);由 /think:off 或会话空闲重置清除。
  • 会发送确认回复(Thinking level set to high. / Thinking disabled.)。如果级别无效(例如 /thinking big),该命令会被拒绝并附带提示,会话状态保持不变。
  • 发送不带参数的 /think(或 /think:)可查看当前思考级别。

按智能体应用

  • 嵌入式 Pi:解析后的级别会传递给进程内 Pi 智能体运行时。
  • Claude CLI 后端:使用 claude-cli 时,非 off 级别会作为 --effort 传递给 Claude Code;参见 CLI 后端

快速模式(/fast)

  • 级别:on|off
  • 仅包含指令的消息会切换会话快速模式覆盖,并回复 Fast mode enabled. / Fast mode disabled.
  • 发送不带模式的 /fast(或 /fast status)可查看当前有效的快速模式状态。
  • OpenClaw 按以下顺序解析快速模式:
    1. 内联/仅指令 /fast on|off
    2. 会话覆盖
    3. 每个智能体默认值(agents.list[].fastModeDefault
    4. 每个模型配置:agents.defaults.models["<provider>/<model>"].params.fastMode
    5. 回退:off
  • 对于 openai/*,快速模式会通过在受支持的 Responses 请求上发送 service_tier=priority 映射到 OpenAI 优先处理。
  • 对于 openai-codex/*,快速模式会在 Codex Responses 上发送相同的 service_tier=priority 标志。OpenClaw 会在两个认证路径之间保留一个共享的 /fast 开关。
  • 对于直连公共 anthropic/* 请求,包括发送到 api.anthropic.com 的 OAuth 认证流量,快速模式会映射到 Anthropic 服务层级:/fast on 设置 service_tier=auto/fast off 设置 service_tier=standard_only
  • 对于 Anthropic 兼容路径上的 minimax/*/fast on(或 params.fastMode: true)会将 MiniMax-M2.7 重写为 MiniMax-M2.7-highspeed
  • 同时设置时,显式 Anthropic serviceTier / service_tier 模型参数会覆盖快速模式默认值。OpenClaw 仍会对非 Anthropic 代理基础 URL 跳过 Anthropic 服务层级注入。
  • /status 仅在快速模式启用时显示 Fast

详细指令(/verbose 或 /v)

  • 级别:on(最少)| full | off(默认)。
  • 仅包含指令的消息会切换会话详细模式,并回复 Verbose logging enabled. / Verbose logging disabled.;无效级别会返回提示且不更改状态。
  • /verbose off 会存储显式会话覆盖;可在会话 UI 中选择 inherit 来清除它。
  • 内联指令仅影响该消息;否则应用会话/全局默认值。
  • 发送不带参数的 /verbose(或 /verbose:)可查看当前详细级别。
  • 启用详细模式时,发出结构化工具结果的智能体(Pi、其他 JSON 智能体)会将每个工具调用作为自己的仅元数据消息发回,在可用时以前缀 <emoji> <tool-name>: <arg> 标注。这些工具摘要会在每个工具启动后立即发送(单独气泡),而不是作为流式增量发送。
  • 工具失败摘要在普通模式下仍可见,但原始错误详细信息后缀会隐藏,除非详细模式为 onfull
  • 当详细模式为 full 时,工具输出也会在完成后转发(单独气泡,截断到安全长度)。如果你在运行进行中切换 /verbose on|full|off,后续工具气泡会遵循新设置。
  • agents.defaults.toolProgressDetail 控制 /verbose 工具摘要和进度草稿工具行的形状。使用 "explain"(默认)可获得紧凑的人类可读标签,例如 🛠️ Exec: checking JS syntax;当你还想附加原始命令/详细信息用于调试时,使用 "raw"。每个智能体的 agents.list[].toolProgressDetail 会覆盖默认值。
    • explain: 🛠️ Exec: check JS syntax for /tmp/app.js
    • raw: 🛠️ Exec: check JS syntax for /tmp/app.js, node --check /tmp/app.js

插件跟踪指令(/trace)

  • 级别:on | off(默认)。
  • 仅包含指令的消息会切换会话插件跟踪输出,并回复 Plugin trace enabled. / Plugin trace disabled.
  • 内联指令仅影响该消息;否则应用会话/全局默认值。
  • 发送不带参数的 /trace(或 /trace:)可查看当前跟踪级别。
  • /trace/verbose 范围更窄:它只公开插件拥有的跟踪/调试行,例如 Active Memory 调试摘要。
  • 跟踪行可以出现在 /status 中,也可以在常规助手回复之后作为后续诊断消息出现。

推理可见性(/reasoning)

  • 级别:on|off|stream
  • 仅包含指令的消息会切换回复中是否显示思考块。
  • 启用后,推理会作为前缀为 Reasoning:单独消息发送。
  • stream(仅 Telegram):在回复生成时将推理流式传输到 Telegram 草稿气泡中,然后发送不含推理的最终答案。
  • 别名:/reason
  • 发送不带参数的 /reasoning(或 /reasoning:)可查看当前推理级别。
  • 解析顺序:内联指令,然后是会话覆盖,然后是每个智能体默认值(agents.list[].reasoningDefault),最后回退(off)。
格式错误的本地模型推理标签会被保守处理。闭合的 <think>...</think> 块在普通回复中保持隐藏,已可见文本之后未闭合的推理也会被隐藏。如果回复完全包裹在单个未闭合的开始标签中,并且否则会作为空文本交付,OpenClaw 会移除格式错误的开始标签并交付剩余文本。

相关

Heartbeat

  • Heartbeat 探测正文是已配置的 Heartbeat 提示(默认:Read HEARTBEAT.md if it exists (workspace context). Follow it strictly. Do not infer or repeat old tasks from prior chats. If nothing needs attention, reply HEARTBEAT_OK.)。Heartbeat 消息中的内联指令会照常应用(但应避免从 Heartbeat 更改会话默认值)。
  • Heartbeat 交付默认只发送最终载荷。若也要发送单独的 Reasoning: 消息(可用时),请设置 agents.defaults.heartbeat.includeReasoning: true 或每个智能体的 agents.list[].heartbeat.includeReasoning: true

Web 聊天 UI

  • Web 聊天思考选择器会在页面加载时,从入站会话存储/配置中镜像该会话已存储的级别。
  • 选择另一个级别会通过 sessions.patch 立即写入会话覆盖;它不会等待下一次发送,也不是一次性的 thinkingOnce 覆盖。
  • 第一个选项始终是 Default (<resolved level>),其中解析后的默认值来自活跃会话模型的提供商思考配置文件,以及 /statussession_status 使用的同一套回退逻辑。
  • 选择器使用 Gateway 网关会话行/默认值返回的 thinkingLevels,并将 thinkingOptions 保留为旧版标签列表。浏览器 UI 不保留自己的提供商正则列表;插件拥有特定于模型的级别集合。
  • /think:<level> 仍然有效,并更新同一个已存储会话级别,因此聊天指令和选择器会保持同步。

提供商配置文件

  • 提供商插件可以暴露 resolveThinkingProfile(ctx),用于定义模型支持的级别和默认值。
  • 代理 Claude 模型的提供商插件应复用来自 openclaw/plugin-sdk/provider-model-sharedresolveClaudeThinkingProfile(modelId),这样直接 Anthropic 目录和代理目录会保持一致。
  • 每个配置档级别都有一个存储的规范 idoffminimallowmediumhighxhighadaptivemax),并且可以包含显示用的 label。二值提供商使用 { id: "low", label: "on" }
  • 需要验证显式思考覆盖设置的工具插件应使用 api.runtime.agent.resolveThinkingPolicy({ provider, model }) 加上 api.runtime.agent.normalizeThinkingLevel(...);它们不应维护自己的提供商/模型级别列表。
  • 能访问已配置自定义模型元数据的工具插件可以将 catalog 传入 resolveThinkingPolicy,这样 compat.supportedReasoningEfforts 的选择加入会反映在插件侧验证中。
  • 已发布的旧版钩子(supportsXHighThinkingisBinaryThinkingresolveDefaultThinkingLevel)仍作为兼容适配器保留,但新的自定义级别集合应使用 resolveThinkingProfile
  • Gateway 网关行/默认值会暴露 thinkingLevelsthinkingOptionsthinkingDefault,以便 ACP/chat 客户端渲染与运行时验证使用的相同配置档 ID 和标签。