Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
功能說明
- 任何傳入本文中的內嵌指令:
/t <level>、/think:<level>或/thinking <level>。 - 層級(別名):
off | minimal | low | medium | high | xhigh | adaptive | max- minimal →「think」
- low →「think hard」
- medium →「think harder」
- high →「ultrathink」(最大預算)
- xhigh →「ultrathink+」(GPT-5.2+ 和 Codex 模型,加上 Anthropic Claude Opus 4.7 effort)
- adaptive → 由提供者管理的自適應思考(支援 Anthropic/Bedrock 上的 Claude 4.6、Anthropic Claude Opus 4.7,以及 Google Gemini 動態思考)
- max → 提供者最大推理(Anthropic Claude Opus 4.7;Ollama 會將此對應到其最高原生
thinkeffort) x-high、x_high、extra-high、extra high和extra_high會對應到xhigh。highest會對應到high。
- 提供者注意事項:
- 思考選單和選擇器由提供者設定檔驅動。提供者 Plugin 會宣告所選模型的確切層級集合,包括像二元
on這類標籤。 - 只有支援它們的提供者/模型設定檔才會顯示
adaptive、xhigh和max。針對不支援層級輸入的指令會被拒絕,並附上該模型的有效選項。 - 現有已儲存的不支援層級會依提供者設定檔排名重新對應。在非自適應模型上,
adaptive會退回到medium,而xhigh和max會退回到所選模型支援的最大非 off 層級。 - Anthropic Claude 4.6 模型在未設定明確思考層級時,預設為
adaptive。 - Anthropic Claude Opus 4.7 不會預設為自適應思考。除非你明確設定思考層級,否則其 API effort 預設值仍由提供者擁有。
- Anthropic Claude Opus 4.7 會將
/think xhigh對應到自適應思考加上output_config.effort: "xhigh",因為/think是思考指令,而xhigh是 Opus 4.7 effort 設定。 - Anthropic Claude Opus 4.7 也公開
/think max;它會對應到相同的提供者擁有最大 effort 路徑。 - Ollama 具備思考能力的模型會公開
/think low|medium|high|max;max會對應到原生think: "high",因為 Ollama 的原生 API 接受low、medium和higheffort 字串。 - OpenAI GPT 模型會透過模型特定的 Responses API effort 支援對應
/think。只有目標模型支援時,/think off才會傳送reasoning.effort: "none";否則 OpenClaw 會省略停用推理的 payload,而不是傳送不支援的值。 - 自訂 OpenAI 相容目錄項目可以透過將
models.providers.<provider>.models[].compat.supportedReasoningEfforts設為包含"xhigh",選擇加入/think xhigh。這會使用相同的 compat 中繼資料來對應傳出的 OpenAI 推理 effort payload,因此選單、工作階段驗證、代理 CLI 和llm-task都會與傳輸行為一致。 - 過時設定的 OpenRouter Hunter Alpha 參照會略過代理推理注入,因為該已停用路由可能會透過推理欄位傳回最終答案文字。
- Google Gemini 會將
/think adaptive對應到 Gemini 提供者擁有的動態思考。Gemini 3 請求會省略固定的thinkingLevel,而 Gemini 2.5 請求會傳送thinkingBudget: -1;固定層級仍會對應到該模型系列最接近的 GeminithinkingLevel或預算。 - Anthropic 相容串流路徑上的 MiniMax(
minimax/*)預設為thinking: { type: "disabled" },除非你在模型參數或請求參數中明確設定思考。這可避免 MiniMax 非原生 Anthropic 串流格式外洩reasoning_content增量。 - Z.AI(
zai/*)只支援二元思考(on/off)。任何非off層級都會被視為on(對應到low)。 - Moonshot(
moonshot/*)會將/think off對應到thinking: { type: "disabled" },並將任何非off層級對應到thinking: { type: "enabled" }。啟用思考時,Moonshot 只接受tool_choiceauto|none;OpenClaw 會將不相容的值正規化為auto。
- 思考選單和選擇器由提供者設定檔驅動。提供者 Plugin 會宣告所選模型的確切層級集合,包括像二元
解析順序
- 訊息上的內嵌指令(只套用於該訊息)。
- 工作階段覆寫(透過傳送只有指令的訊息設定)。
- 每代理預設值(設定中的
agents.list[].thinkingDefault)。 - 全域預設值(設定中的
agents.defaults.thinkingDefault)。 - 備援:可用時使用提供者宣告的預設值;否則具備推理能力的模型會解析為
medium或該模型最接近的支援非off層級,而非推理模型會維持off。
設定工作階段預設值
- 傳送一則只有指令的訊息(允許空白),例如
/think:medium或/t high。 - 該設定會保留於目前工作階段(預設依傳送者區分);可由
/think:off或工作階段閒置重設清除。 - 會傳送確認回覆(
Thinking level set to high./Thinking disabled.)。如果層級無效(例如/thinking big),命令會被拒絕並附上提示,且工作階段狀態不會變更。 - 傳送沒有引數的
/think(或/think:)即可查看目前思考層級。
依代理套用
- 嵌入式 Pi:解析後的層級會傳遞給同處理程序的 Pi 代理執行階段。
快速模式(/fast)
- 層級:
on|off。 - 只有指令的訊息會切換工作階段快速模式覆寫,並回覆
Fast mode enabled./Fast mode disabled.。 - 傳送沒有模式的
/fast(或/fast status)即可查看目前有效的快速模式狀態。 - OpenClaw 會依此順序解析快速模式:
- 內嵌/只有指令的
/fast on|off - 工作階段覆寫
- 每代理預設值(
agents.list[].fastModeDefault) - 每模型設定:
agents.defaults.models["<provider>/<model>"].params.fastMode - 備援:
off
- 內嵌/只有指令的
- 對於
openai/*,快速模式會在支援的 Responses 請求上傳送service_tier=priority,對應到 OpenAI 優先處理。 - 對於
openai-codex/*,快速模式會在 Codex Responses 上傳送相同的service_tier=priority旗標。OpenClaw 會在兩種驗證路徑之間保留一個共用的/fast切換。 - 對於直接公開的
anthropic/*請求,包括傳送到api.anthropic.com的 OAuth 驗證流量,快速模式會對應到 Anthropic 服務層級:/fast on設定service_tier=auto,/fast off設定service_tier=standard_only。 - 對於 Anthropic 相容路徑上的
minimax/*,/fast on(或params.fastMode: true)會將MiniMax-M2.7重寫為MiniMax-M2.7-highspeed。 - 明確的 Anthropic
serviceTier/service_tier模型參數會在兩者都設定時覆寫快速模式預設值。OpenClaw 仍會對非 Anthropic 代理基底 URL 略過 Anthropic 服務層級注入。 /status只會在啟用快速模式時顯示Fast。
詳細指令(/verbose 或 /v)
- 層級:
on(最小)|full|off(預設)。 - 只有指令的訊息會切換工作階段詳細記錄,並回覆
Verbose logging enabled./Verbose logging disabled.;無效層級會回傳提示而不變更狀態。 /verbose off會儲存明確的工作階段覆寫;可透過 Sessions UI 選擇inherit來清除。- 內嵌指令只影響該訊息;其他情況會套用工作階段/全域預設值。
- 傳送沒有引數的
/verbose(或/verbose:)即可查看目前詳細層級。 - 詳細模式開啟時,會發出結構化工具結果的代理(Pi、其他 JSON 代理)會將每次工具呼叫作為自己的僅中繼資料訊息送回,可用時前綴為
<emoji> <tool-name>: <arg>(路徑/命令)。這些工具摘要會在每個工具啟動後立即傳送(獨立氣泡),而不是作為串流增量。 - 工具失敗摘要在一般模式中仍可見,但原始錯誤詳細資料後綴會隱藏,除非詳細層級為
on或full。 - 當詳細層級為
full時,工具輸出也會在完成後轉送(獨立氣泡,截斷至安全長度)。如果你在執行期間切換/verbose on|full|off,後續工具氣泡會遵守新設定。
Plugin 追蹤指令(/trace)
- 層級:
on|off(預設)。 - 只有指令的訊息會切換工作階段 Plugin 追蹤輸出,並回覆
Plugin trace enabled./Plugin trace disabled.。 - 內嵌指令只影響該訊息;其他情況會套用工作階段/全域預設值。
- 傳送沒有引數的
/trace(或/trace:)即可查看目前追蹤層級。 /trace比/verbose更窄:它只會公開 Plugin 擁有的追蹤/偵錯行,例如 Active Memory 偵錯摘要。- 追蹤行可能出現在
/status中,以及正常助理回覆之後的後續診斷訊息中。
推理可見性(/reasoning)
- 層級:
on|off|stream。 - 只有指令的訊息會切換是否在回覆中顯示思考區塊。
- 啟用時,推理會作為獨立訊息傳送,前綴為
Reasoning:。 stream(僅 Telegram):在回覆產生時將推理串流到 Telegram 草稿氣泡,然後傳送不含推理的最終答案。- 別名:
/reason。 - 傳送沒有引數的
/reasoning(或/reasoning:)即可查看目前推理層級。 - 解析順序:內嵌指令,接著是工作階段覆寫,接著是每代理預設值(
agents.list[].reasoningDefault),最後是備援(off)。
<think>...</think> 區塊會在一般回覆中維持隱藏,已可見文字之後未封閉的推理也會隱藏。如果回覆完全包在單一未封閉的開頭標籤中,且否則會以空文字傳遞,OpenClaw 會移除格式錯誤的開頭標籤並傳遞剩餘文字。
相關
- 提權模式文件位於 提權模式。
Heartbeat
- Heartbeat 探測本文是已設定的 Heartbeat 提示(預設:
Read HEARTBEAT.md if it exists (workspace context). Follow it strictly. Do not infer or repeat old tasks from prior chats. If nothing needs attention, reply HEARTBEAT_OK.)。Heartbeat 訊息中的內嵌指令會照常套用(但請避免從 Heartbeat 變更工作階段預設值)。 - Heartbeat 傳遞預設只傳送最終 payload。若也要傳送獨立的
Reasoning:訊息(可用時),請設定agents.defaults.heartbeat.includeReasoning: true或每代理agents.list[].heartbeat.includeReasoning: true。
網頁聊天 UI
- 網頁聊天思考選擇器會在頁面載入時,從傳入工作階段儲存區/設定映照工作階段已儲存的層級。
- 選擇另一個層級會立即透過
sessions.patch寫入工作階段覆寫;它不會等待下一次傳送,也不是一次性的thinkingOnce覆寫。 - 第一個選項一律是
Default (<resolved level>),其中解析後的預設值來自作用中工作階段模型的提供者思考設定檔,加上/status和session_status使用的相同備援邏輯。 - 選擇器使用 Gateway 工作階段列/預設值傳回的
thinkingLevels,並保留thinkingOptions作為舊版標籤清單。瀏覽器 UI 不會保留自己的提供者正規表示式清單;Plugin 擁有模型特定的層級集合。 /think:<level>仍可運作,並會更新相同儲存的工作階段層級,因此聊天指令和選擇器會保持同步。
提供者設定檔
- 提供者 Plugin 可以公開
resolveThinkingProfile(ctx),以定義模型支援的層級和預設值。 - 代理 Claude 模型的提供者 Plugin 應重用
openclaw/plugin-sdk/provider-model-shared中的resolveClaudeThinkingProfile(modelId),讓直接 Anthropic 目錄和代理目錄保持一致。 - 每個設定檔層級都有一個已儲存的標準
id(off、minimal、low、medium、high、xhigh、adaptive或max),並且可以包含顯示用的label。二元提供者使用{ id: "low", label: "on" }。 - 需要驗證明確思考覆寫的工具 Plugin 應使用
api.runtime.agent.resolveThinkingPolicy({ provider, model })加上api.runtime.agent.normalizeThinkingLevel(...);它們不應維護自己的提供者/模型層級清單。 - 可存取已設定自訂模型中繼資料的工具 Plugin 可以將
catalog傳入resolveThinkingPolicy,讓compat.supportedReasoningEfforts的選用設定反映在 Plugin 端驗證中。 - 已發布的舊版掛鉤(
supportsXHighThinking、isBinaryThinking和resolveDefaultThinkingLevel)會保留為相容性轉接器,但新的自訂層級集合應使用resolveThinkingProfile。 - Gateway 列和預設值會公開
thinkingLevels、thinkingOptions和thinkingDefault,讓 ACP/聊天用戶端呈現與執行階段驗證所使用的相同設定檔 id 和標籤。