Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
它的作用
- 任意入站正文中的内联指令:
/t <level>、/think:<level>或/thinking <level>。 - 级别(别名):
off | minimal | low | medium | high | xhigh | adaptive | max- minimal → “思考”
- low → “认真思考”
- medium → “更认真地思考”
- high → “超深度思考”(最大预算)
- xhigh → “超深度思考+”(GPT-5.2+ 和 Codex 模型,以及 Anthropic Claude Opus 4.7 effort)
- adaptive → 由提供商管理的自适应思考(Anthropic/Bedrock 上的 Claude 4.6、Anthropic Claude Opus 4.7 和 Google Gemini 动态思考支持)
- max → 提供商最大推理(Anthropic Claude Opus 4.7;Ollama 会将其映射到其最高原生
thinkeffort) x-high、x_high、extra-high、extra high和extra_high映射到xhigh。highest映射到high。
- 提供商说明:
- 思考菜单和选择器由提供商配置文件驱动。提供商插件会声明所选模型的确切级别集合,包括诸如二元
on这样的标签。 adaptive、xhigh和max只会针对支持它们的提供商/模型配置文件展示。对不支持级别输入的指令会被拒绝,并返回该模型的有效选项。- 现有已存储的不支持级别会按提供商配置文件排名重新映射。在非自适应模型上,
adaptive会回退到medium,而xhigh和max会回退到所选模型支持的最大非off级别。 - Anthropic Claude 4.6 模型在未设置显式思考级别时默认使用
adaptive。 - Anthropic Claude Opus 4.7 不默认使用自适应思考。除非你显式设置思考级别,否则其 API effort 默认值仍由提供商拥有。
- Anthropic Claude Opus 4.7 会将
/think xhigh映射到自适应思考加output_config.effort: "xhigh",因为/think是思考指令,而xhigh是 Opus 4.7 的 effort 设置。 - Anthropic Claude Opus 4.7 也公开
/think max;它映射到同一条提供商拥有的最大 effort 路径。 - 直连 DeepSeek V4 模型公开
/think xhigh|max;两者都会映射到 DeepSeekreasoning_effort: "max",而较低的非 off 级别会映射到high。 - 通过 OpenRouter 路由的 DeepSeek V4 模型公开
/think xhigh并发送 OpenRouter 支持的reasoning_effort值。已存储的max覆盖会回退到xhigh。 - 支持思考的 Ollama 模型公开
/think low|medium|high|max;max会映射到原生think: "high",因为 Ollama 的原生 API 接受low、medium和higheffort 字符串。 - OpenAI GPT 模型会通过模型特定的 Responses API effort 支持来映射
/think。只有目标模型支持时,/think off才会发送reasoning.effort: "none";否则 OpenClaw 会省略已禁用的推理载荷,而不是发送不支持的值。 - 自定义 OpenAI 兼容目录条目可以通过设置
models.providers.<provider>.models[].compat.supportedReasoningEfforts使其包含"xhigh"来选择加入/think xhigh。这会使用同一套用于映射出站 OpenAI 推理 effort 载荷的兼容元数据,因此菜单、会话校验、智能体 CLI 和llm-task都会与传输行为保持一致。 - 过期配置的 OpenRouter Hunter Alpha 引用会跳过代理推理注入,因为该已退役路由可能通过推理字段返回最终答案文本。
- Google Gemini 会将
/think adaptive映射到 Gemini 由提供商拥有的动态思考。Gemini 3 请求会省略固定的thinkingLevel,而 Gemini 2.5 请求会发送thinkingBudget: -1;固定级别仍会映射到该模型家族最接近的 GeminithinkingLevel或预算。 - Anthropic 兼容流式路径上的 MiniMax (
minimax/*) 默认使用thinking: { type: "disabled" },除非你在模型参数或请求参数中显式设置思考。这可避免 MiniMax 非原生 Anthropic 流格式泄漏reasoning_content增量。 - Z.AI (
zai/*) 只支持二元思考(on/off)。任何非off级别都会被视为on(映射到low)。 - Moonshot (
moonshot/*) 会将/think off映射到thinking: { type: "disabled" },并将任何非off级别映射到thinking: { type: "enabled" }。启用思考时,Moonshot 只接受tool_choiceauto|none;OpenClaw 会将不兼容的值规范化为auto。
- 思考菜单和选择器由提供商配置文件驱动。提供商插件会声明所选模型的确切级别集合,包括诸如二元
解析顺序
- 消息上的内联指令(仅应用于该消息)。
- 会话覆盖(通过发送仅包含指令的消息设置)。
- 每个智能体默认值(配置中的
agents.list[].thinkingDefault)。 - 全局默认值(配置中的
agents.defaults.thinkingDefault)。 - 回退:有可用的提供商声明默认值时使用该默认值;否则,支持推理的模型会解析为
medium,或该模型最接近的受支持非off级别,而非推理模型保持off。
设置会话默认值
- 发送一条仅包含该指令的消息(允许空白),例如
/think:medium或/t high。 - 这会对当前会话生效(默认按发送者区分);由
/think:off或会话空闲重置清除。 - 会发送确认回复(
Thinking level set to high./Thinking disabled.)。如果级别无效(例如/thinking big),该命令会被拒绝并附带提示,会话状态保持不变。 - 发送不带参数的
/think(或/think:)可查看当前思考级别。
按智能体应用
- 嵌入式 Pi:解析后的级别会传递给进程内 Pi 智能体运行时。
- Claude CLI 后端:使用
claude-cli时,非 off 级别会作为--effort传递给 Claude Code;参见 CLI 后端。
快速模式(/fast)
- 级别:
on|off。 - 仅包含指令的消息会切换会话快速模式覆盖,并回复
Fast mode enabled./Fast mode disabled.。 - 发送不带模式的
/fast(或/fast status)可查看当前有效的快速模式状态。 - OpenClaw 按以下顺序解析快速模式:
- 内联/仅指令
/fast on|off - 会话覆盖
- 每个智能体默认值(
agents.list[].fastModeDefault) - 每个模型配置:
agents.defaults.models["<provider>/<model>"].params.fastMode - 回退:
off
- 内联/仅指令
- 对于
openai/*,快速模式会通过在受支持的 Responses 请求上发送service_tier=priority映射到 OpenAI 优先处理。 - 对于
openai-codex/*,快速模式会在 Codex Responses 上发送相同的service_tier=priority标志。OpenClaw 会在两个认证路径之间保留一个共享的/fast开关。 - 对于直连公共
anthropic/*请求,包括发送到api.anthropic.com的 OAuth 认证流量,快速模式会映射到 Anthropic 服务层级:/fast on设置service_tier=auto,/fast off设置service_tier=standard_only。 - 对于 Anthropic 兼容路径上的
minimax/*,/fast on(或params.fastMode: true)会将MiniMax-M2.7重写为MiniMax-M2.7-highspeed。 - 同时设置时,显式 Anthropic
serviceTier/service_tier模型参数会覆盖快速模式默认值。OpenClaw 仍会对非 Anthropic 代理基础 URL 跳过 Anthropic 服务层级注入。 /status仅在快速模式启用时显示Fast。
详细指令(/verbose 或 /v)
- 级别:
on(最少)|full|off(默认)。 - 仅包含指令的消息会切换会话详细模式,并回复
Verbose logging enabled./Verbose logging disabled.;无效级别会返回提示且不更改状态。 /verbose off会存储显式会话覆盖;可在会话 UI 中选择inherit来清除它。- 内联指令仅影响该消息;否则应用会话/全局默认值。
- 发送不带参数的
/verbose(或/verbose:)可查看当前详细级别。 - 启用详细模式时,发出结构化工具结果的智能体(Pi、其他 JSON 智能体)会将每个工具调用作为自己的仅元数据消息发回,在可用时以前缀
<emoji> <tool-name>: <arg>标注。这些工具摘要会在每个工具启动后立即发送(单独气泡),而不是作为流式增量发送。 - 工具失败摘要在普通模式下仍可见,但原始错误详细信息后缀会隐藏,除非详细模式为
on或full。 - 当详细模式为
full时,工具输出也会在完成后转发(单独气泡,截断到安全长度)。如果你在运行进行中切换/verbose on|full|off,后续工具气泡会遵循新设置。 agents.defaults.toolProgressDetail控制/verbose工具摘要和进度草稿工具行的形状。使用"explain"(默认)可获得紧凑的人类可读标签,例如🛠️ Exec: checking JS syntax;当你还想附加原始命令/详细信息用于调试时,使用"raw"。每个智能体的agents.list[].toolProgressDetail会覆盖默认值。explain:🛠️ Exec: check JS syntax for /tmp/app.jsraw:🛠️ Exec: check JS syntax for /tmp/app.js, node --check /tmp/app.js
插件跟踪指令(/trace)
- 级别:
on|off(默认)。 - 仅包含指令的消息会切换会话插件跟踪输出,并回复
Plugin trace enabled./Plugin trace disabled.。 - 内联指令仅影响该消息;否则应用会话/全局默认值。
- 发送不带参数的
/trace(或/trace:)可查看当前跟踪级别。 /trace比/verbose范围更窄:它只公开插件拥有的跟踪/调试行,例如 Active Memory 调试摘要。- 跟踪行可以出现在
/status中,也可以在常规助手回复之后作为后续诊断消息出现。
推理可见性(/reasoning)
- 级别:
on|off|stream。 - 仅包含指令的消息会切换回复中是否显示思考块。
- 启用后,推理会作为前缀为
Reasoning:的单独消息发送。 stream(仅 Telegram):在回复生成时将推理流式传输到 Telegram 草稿气泡中,然后发送不含推理的最终答案。- 别名:
/reason。 - 发送不带参数的
/reasoning(或/reasoning:)可查看当前推理级别。 - 解析顺序:内联指令,然后是会话覆盖,然后是每个智能体默认值(
agents.list[].reasoningDefault),最后回退(off)。
<think>...</think> 块在普通回复中保持隐藏,已可见文本之后未闭合的推理也会被隐藏。如果回复完全包裹在单个未闭合的开始标签中,并且否则会作为空文本交付,OpenClaw 会移除格式错误的开始标签并交付剩余文本。
相关
- 提权模式文档位于 提权模式。
Heartbeat
- Heartbeat 探测正文是已配置的 Heartbeat 提示(默认:
Read HEARTBEAT.md if it exists (workspace context). Follow it strictly. Do not infer or repeat old tasks from prior chats. If nothing needs attention, reply HEARTBEAT_OK.)。Heartbeat 消息中的内联指令会照常应用(但应避免从 Heartbeat 更改会话默认值)。 - Heartbeat 交付默认只发送最终载荷。若也要发送单独的
Reasoning:消息(可用时),请设置agents.defaults.heartbeat.includeReasoning: true或每个智能体的agents.list[].heartbeat.includeReasoning: true。
Web 聊天 UI
- Web 聊天思考选择器会在页面加载时,从入站会话存储/配置中镜像该会话已存储的级别。
- 选择另一个级别会通过
sessions.patch立即写入会话覆盖;它不会等待下一次发送,也不是一次性的thinkingOnce覆盖。 - 第一个选项始终是
Default (<resolved level>),其中解析后的默认值来自活跃会话模型的提供商思考配置文件,以及/status和session_status使用的同一套回退逻辑。 - 选择器使用 Gateway 网关会话行/默认值返回的
thinkingLevels,并将thinkingOptions保留为旧版标签列表。浏览器 UI 不保留自己的提供商正则列表;插件拥有特定于模型的级别集合。 /think:<level>仍然有效,并更新同一个已存储会话级别,因此聊天指令和选择器会保持同步。
提供商配置文件
- 提供商插件可以暴露
resolveThinkingProfile(ctx),用于定义模型支持的级别和默认值。 - 代理 Claude 模型的提供商插件应复用来自
openclaw/plugin-sdk/provider-model-shared的resolveClaudeThinkingProfile(modelId),这样直接 Anthropic 目录和代理目录会保持一致。 - 每个配置档级别都有一个存储的规范
id(off、minimal、low、medium、high、xhigh、adaptive或max),并且可以包含显示用的label。二值提供商使用{ id: "low", label: "on" }。 - 需要验证显式思考覆盖设置的工具插件应使用
api.runtime.agent.resolveThinkingPolicy({ provider, model })加上api.runtime.agent.normalizeThinkingLevel(...);它们不应维护自己的提供商/模型级别列表。 - 能访问已配置自定义模型元数据的工具插件可以将
catalog传入resolveThinkingPolicy,这样compat.supportedReasoningEfforts的选择加入会反映在插件侧验证中。 - 已发布的旧版钩子(
supportsXHighThinking、isBinaryThinking和resolveDefaultThinkingLevel)仍作为兼容适配器保留,但新的自定义级别集合应使用resolveThinkingProfile。 - Gateway 网关行/默认值会暴露
thinkingLevels、thinkingOptions和thinkingDefault,以便 ACP/chat 客户端渲染与运行时验证使用的相同配置档 ID 和标签。