Thinking Levels(/think ディレクティブ)
何をするか
- 任意の受信本文で使えるインラインディレクティブ:
/t <level>、/think:<level>、または/thinking <level>。 - レベル(エイリアス):
off | minimal | low | medium | high | xhigh | adaptive- minimal → 「think」
- low → 「think hard」
- medium → 「think harder」
- high → 「ultrathink」(最大バジェット)
- xhigh → 「ultrathink+」(GPT-5.2 + Codex モデルのみ)
- adaptive → プロバイダー管理の適応型推論バジェット(Anthropic Claude 4.6 モデルファミリーでサポート)
x-high、x_high、extra-high、extra high、extra_highはxhighにマップされます。highest、maxはhighにマップされます。
- プロバイダーに関する注記:
- Anthropic Claude 4.6 モデルでは、明示的な thinking レベルが設定されていない場合、デフォルトは
adaptiveです。 - Anthropic 互換のストリーミング経路における MiniMax(
minimax/*)では、モデル params またはリクエスト params で明示的に thinking を設定しない限り、デフォルトでthinking: { type: "disabled" }になります。これにより、MiniMax 独自の Anthropic 非ネイティブストリーム形式からreasoning_contentdelta が漏れるのを防ぎます。 - Z.AI(
zai/*)は二値の thinking(on/off)のみをサポートします。off以外のレベルはすべてonとして扱われます(lowにマップされます)。 - Moonshot(
moonshot/*)では、/think offはthinking: { type: "disabled" }に、off以外の任意のレベルはthinking: { type: "enabled" }にマップされます。thinking が有効なとき、Moonshot はtool_choiceとしてauto|noneしか受け付けないため、OpenClaw は互換性のない値をautoに正規化します。
- Anthropic Claude 4.6 モデルでは、明示的な thinking レベルが設定されていない場合、デフォルトは
解決順序
- メッセージ上のインラインディレクティブ(そのメッセージにのみ適用)。
- セッション上書き(ディレクティブだけのメッセージを送信して設定)。
- エージェントごとのデフォルト(config の
agents.list[].thinkingDefault)。 - グローバルデフォルト(config の
agents.defaults.thinkingDefault)。 - フォールバック: Anthropic Claude 4.6 モデルでは
adaptive、その他の推論対応モデルではlow、それ以外ではoff。
セッションデフォルトを設定する
- ディレクティブのみのメッセージを送信します(空白は許可)。例:
/think:mediumまたは/t high。 - これは現在のセッションに適用されます(デフォルトでは送信者ごと)。
/think:offまたはセッションのアイドルリセットで解除されます。 - 確認返信が送信されます(
Thinking level set to high./Thinking disabled.)。レベルが無効な場合(例:/thinking big)、コマンドはヒント付きで拒否され、セッション状態は変更されません。 - 引数なしで
/think(または/think:)を送信すると、現在の thinking レベルを確認できます。
エージェントごとの適用
- Embedded Pi: 解決されたレベルは、インプロセスの Pi エージェントランタイムに渡されます。
Fast mode(/fast)
- レベル:
on|off。 - ディレクティブのみのメッセージでセッションの fast-mode 上書きを切り替え、
Fast mode enabled./Fast mode disabled.と返信します。 - モードなしで
/fast(または/fast status)を送信すると、現在有効な fast-mode 状態を確認できます。 - OpenClaw は次の順序で fast mode を解決します:
- インライン/ディレクティブのみの
/fast on|off - セッション上書き
- エージェントごとのデフォルト(
agents.list[].fastModeDefault) - モデルごとの config:
agents.defaults.models["<provider>/<model>"].params.fastMode - フォールバック:
off
- インライン/ディレクティブのみの
openai/*では、fast mode は、サポートされる Responses リクエストにservice_tier=priorityを送信することで OpenAI の priority processing にマップされます。openai-codex/*では、fast mode は Codex Responses に同じservice_tier=priorityフラグを送信します。OpenClaw は両方の認証経路で1つの共有/fastトグルを維持します。api.anthropic.comに送られる OAuth 認証トラフィックを含む、直接の公開anthropic/*リクエストでは、fast mode は Anthropic の service tiers にマップされます:/fast onはservice_tier=auto、/fast offはservice_tier=standard_onlyを設定します。- Anthropic 互換経路の
minimax/*では、/fast on(またはparams.fastMode: true)はMiniMax-M2.7をMiniMax-M2.7-highspeedに書き換えます。 - 明示的な Anthropic
serviceTier/service_tierモデル params は、両方が設定されている場合、fast-mode デフォルトを上書きします。OpenClaw は、Anthropic 以外のプロキシ base URL に対しては引き続き Anthropic service-tier の注入をスキップします。
Verbose ディレクティブ(/verbose または /v)
- レベル:
on(最小) |full|off(デフォルト)。 - ディレクティブのみのメッセージでセッション verbose を切り替え、
Verbose logging enabled./Verbose logging disabled.と返信します。無効なレベルは状態を変えずにヒントを返します。 /verbose offは明示的なセッション上書きを保存します。Sessions UI でinheritを選ぶと解除できます。- インラインディレクティブはそのメッセージにのみ適用されます。それ以外ではセッション/グローバルデフォルトが適用されます。
- 引数なしで
/verbose(または/verbose:)を送信すると、現在の verbose レベルを確認できます。 - verbose が on の場合、構造化ツール結果を出力するエージェント(Pi、その他の JSON エージェント)は、各ツール呼び出しをそれぞれ独立したメタデータ専用メッセージとして返し、利用可能であれば
<emoji> <tool-name>: <arg>(path/command)を先頭に付けます。これらのツール要約は、各ツール開始時にすぐ送信されます(別々のバブルとして表示され、ストリーミング delta ではありません)。 - ツール失敗の要約は通常モードでも表示されたままですが、生のエラー詳細の接尾辞は verbose が
onまたはfullのときにのみ表示されます。 - verbose が
fullのときは、ツール出力も完了後に転送されます(別バブル、長さは安全な範囲で切り詰め)。実行中に/verbose on|full|offを切り替えると、それ以降のツールバブルは新しい設定に従います。
推論表示(/reasoning)
- レベル:
on|off|stream。 - ディレクティブのみのメッセージで、返信内に thinking ブロックを表示するかどうかを切り替えます。
- 有効な場合、推論は
Reasoning:を先頭に付けた別メッセージとして送信されます。 stream(Telegram のみ): 返信生成中に推論を Telegram の draft bubble にストリーミングし、その後最終回答は推論なしで送信します。- エイリアス:
/reason。 - 引数なしで
/reasoning(または/reasoning:)を送信すると、現在の reasoning レベルを確認できます。 - 解決順序: インラインディレクティブ、次にセッション上書き、次にエージェントごとのデフォルト(
agents.list[].reasoningDefault)、最後にフォールバック(off)。
関連
- Elevated mode のドキュメントは Elevated mode にあります。
ハートビート
- Heartbeat probe 本文は設定された heartbeat prompt です(デフォルト:
Read HEARTBEAT.md if it exists (workspace context). Follow it strictly. Do not infer or repeat old tasks from prior chats. If nothing needs attention, reply HEARTBEAT_OK.)。heartbeat メッセージ内のインラインディレクティブも通常どおり適用されます(ただし、heartbeat からセッションデフォルトを変更するのは避けてください)。 - Heartbeat 配信はデフォルトで最終ペイロードのみです。別個の
Reasoning:メッセージも送信するには(利用可能な場合)、agents.defaults.heartbeat.includeReasoning: trueまたはエージェントごとのagents.list[].heartbeat.includeReasoning: trueを設定してください。
Web chat UI
- Web chat の thinking セレクターは、ページ読み込み時に inbound session store/config に保存されているセッションレベルを反映します。
- 別のレベルを選ぶと、
sessions.patchを通じてセッション上書きが即座に書き込まれます。次の送信までは待たず、また一回限りのthinkingOnce上書きでもありません。 - 最初の選択肢は常に
Default (<resolved level>)で、この解決済みデフォルトはアクティブなセッションモデルに由来します: Anthropic/Bedrock 上の Claude 4.6 ではadaptive、その他の推論対応モデルではlow、それ以外ではoff。 - ピッカーは引き続きプロバイダーを認識します:
- ほとんどのプロバイダーでは
off | minimal | low | medium | high | adaptiveを表示 - Z.AI では二値の
off | onを表示
- ほとんどのプロバイダーでは
/think:<level>も引き続き機能し、同じ保存済みセッションレベルを更新するため、チャットディレクティブとピッカーは同期されたままです。