Poziomy myślenia (/think dyrektywy)
Co to robi
- Dyrektywa inline w dowolnej treści przychodzącej:
/t <level>,/think:<level>lub/thinking <level>. - Poziomy (aliasy):
off | minimal | low | medium | high | xhigh | adaptive | max- minimal → „think”
- low → „think hard”
- medium → „think harder”
- high → „ultrathink” (maksymalny budżet)
- xhigh → „ultrathink+” (GPT-5.2 + modele Codex oraz wysiłek Anthropic Claude Opus 4.7)
- adaptive → zarządzane przez dostawcę myślenie adaptacyjne (obsługiwane dla Claude 4.6 na Anthropic/Bedrock oraz Anthropic Claude Opus 4.7)
- max → maksymalne rozumowanie dostawcy (obecnie Anthropic Claude Opus 4.7)
x-high,x_high,extra-high,extra highiextra_highmapują się doxhigh.highestmapuje się dohigh.
- Uwagi dotyczące dostawców:
- Menu i selektory myślenia są sterowane profilami dostawców. Pluginy dostawców deklarują dokładny zestaw poziomów dla wybranego modelu, w tym etykiety takie jak binarne
on. adaptive,xhighimaxsą ogłaszane tylko dla profili dostawcy/modelu, które je obsługują. Wpisane dyrektywy dla nieobsługiwanych poziomów są odrzucane z poprawnymi opcjami dla tego modelu.- Istniejące zapisane nieobsługiwane poziomy, w tym stare wartości
maxpo przełączeniu modelu, są mapowane ponownie do najwyższego obsługiwanego poziomu dla wybranego modelu. - Modele Anthropic Claude 4.6 domyślnie używają
adaptive, gdy nie ustawiono jawnie poziomu myślenia. - Anthropic Claude Opus 4.7 nie domyślnie nie używa myślenia adaptacyjnego. Domyślny wysiłek jego API pozostaje zarządzany przez dostawcę, chyba że jawnie ustawisz poziom myślenia.
- Anthropic Claude Opus 4.7 mapuje
/think xhighna myślenie adaptacyjne plusoutput_config.effort: "xhigh", ponieważ/thinkjest dyrektywą myślenia, axhighto ustawienie wysiłku Opus 4.7. - Anthropic Claude Opus 4.7 udostępnia także
/think max; mapuje się ono na tę samą ścieżkę maksymalnego wysiłku zarządzaną przez dostawcę. - Modele OpenAI GPT mapują
/thinkprzez obsługę wysiłku specyficzną dla modelu w Responses API./think offwysyłareasoning.effort: "none"tylko wtedy, gdy model docelowy to obsługuje; w przeciwnym razie OpenClaw pomija wyłączony ładunek reasoning zamiast wysyłać nieobsługiwaną wartość. - MiniMax (
minimax/*) na ścieżce strumieniowania zgodnej z Anthropic domyślnie używathinking: { type: "disabled" }, chyba że jawnie ustawisz myślenie w parametrach modelu lub parametrach żądania. Pozwala to uniknąć wyciekających deltreasoning_contentz nienatywnego formatu strumienia Anthropic MiniMax. - Z.AI (
zai/*) obsługuje tylko binarne myślenie (on/off). Każdy poziom inny niżoffjest traktowany jakoon(mapowany dolow). - Moonshot (
moonshot/*) mapuje/think offnathinking: { type: "disabled" }, a każdy poziom inny niżoffnathinking: { type: "enabled" }. Gdy myślenie jest włączone, Moonshot akceptuje tylkotool_choiceauto|none; OpenClaw normalizuje niezgodne wartości doauto.
- Menu i selektory myślenia są sterowane profilami dostawców. Pluginy dostawców deklarują dokładny zestaw poziomów dla wybranego modelu, w tym etykiety takie jak binarne
Kolejność rozwiązywania
- Dyrektywa inline w wiadomości (dotyczy tylko tej wiadomości).
- Nadpisanie sesji (ustawiane przez wysłanie wiadomości zawierającej tylko dyrektywę).
- Domyślna wartość per agent (
agents.list[].thinkingDefaultw konfiguracji). - Globalna wartość domyślna (
agents.defaults.thinkingDefaultw konfiguracji). - Zapasowo: wartość domyślna zadeklarowana przez dostawcę, gdy jest dostępna,
lowdla innych modeli katalogowych oznaczonych jako zdolne do rozumowania, w przeciwnym razieoff.
Ustawianie domyślnej wartości sesji
- Wyślij wiadomość, która jest tylko dyrektywą (dozwolone są białe znaki), np.
/think:mediumlub/t high. - To utrzymuje się dla bieżącej sesji (domyślnie per nadawca); jest czyszczone przez
/think:offlub reset bezczynności sesji. - Wysyłana jest odpowiedź potwierdzająca (
Thinking level set to high./Thinking disabled.). Jeśli poziom jest nieprawidłowy (np./thinking big), polecenie jest odrzucane ze wskazówką, a stan sesji pozostaje bez zmian. - Wyślij
/think(lub/think:) bez argumentu, aby zobaczyć bieżący poziom myślenia.
Zastosowanie przez agenta
- Osadzony Pi: rozpoznany poziom jest przekazywany do runtime agenta Pi działającego w procesie.
Tryb szybki (/fast)
- Poziomy:
on|off. - Wiadomość zawierająca tylko dyrektywę przełącza nadpisanie trybu szybkiego dla sesji i odpowiada
Fast mode enabled./Fast mode disabled.. - Wyślij
/fast(lub/fast status) bez trybu, aby zobaczyć bieżący efektywny stan trybu szybkiego. - OpenClaw rozwiązuje tryb szybki w tej kolejności:
- Inline/tylko-dyrektywa
/fast on|off - Nadpisanie sesji
- Domyślna wartość per agent (
agents.list[].fastModeDefault) - Konfiguracja per model:
agents.defaults.models["<provider>/<model>"].params.fastMode - Zapasowo:
off
- Inline/tylko-dyrektywa
- Dla
openai/*tryb szybki mapuje się na przetwarzanie priorytetowe OpenAI przez wysyłanieservice_tier=priorityw obsługiwanych żądaniach Responses. - Dla
openai-codex/*tryb szybki wysyła tę samą flagęservice_tier=priorityw Codex Responses. OpenClaw utrzymuje jeden wspólny przełącznik/fastdla obu ścieżek uwierzytelniania. - Dla bezpośrednich publicznych żądań
anthropic/*, w tym ruchu uwierzytelnianego OAuth wysyłanego doapi.anthropic.com, tryb szybki mapuje się na warstwy usług Anthropic:/fast onustawiaservice_tier=auto,/fast offustawiaservice_tier=standard_only. - Dla
minimax/*na ścieżce zgodnej z Anthropic/fast on(lubparams.fastMode: true) przepisujeMiniMax-M2.7naMiniMax-M2.7-highspeed. - Jawne parametry modelu Anthropic
serviceTier/service_tiermają pierwszeństwo przed domyślnym trybem szybkim, gdy ustawione są oba. OpenClaw nadal pomija wstrzykiwanie warstwy usług Anthropic dla bazowych URL proxy innych niż Anthropic.
Dyrektywy verbose (/verbose lub /v)
- Poziomy:
on(minimalny) |full|off(domyślnie). - Wiadomość zawierająca tylko dyrektywę przełącza verbose sesji i odpowiada
Verbose logging enabled./Verbose logging disabled.; nieprawidłowe poziomy zwracają wskazówkę bez zmiany stanu. /verbose offzapisuje jawne nadpisanie sesji; wyczyść je przez Sessions UI, wybierającinherit.- Dyrektywa inline wpływa tylko na tę wiadomość; w pozostałych przypadkach stosowane są domyślne wartości sesji/globalne.
- Wyślij
/verbose(lub/verbose:) bez argumentu, aby zobaczyć bieżący poziom verbose. - Gdy verbose jest włączone, agenci emitujący uporządkowane wyniki narzędzi (Pi, inni agenci JSON) odsyłają każde wywołanie narzędzia jako osobną wiadomość tylko z metadanymi, z prefiksem
<emoji> <tool-name>: <arg>, jeśli jest dostępny (ścieżka/polecenie). Te podsumowania narzędzi są wysyłane od razu po starcie każdego narzędzia (osobne bąbelki), a nie jako delty strumieniowania. - Podsumowania błędów narzędzi pozostają widoczne w trybie normalnym, ale surowe sufiksy szczegółów błędu są ukryte, chyba że verbose ma wartość
onlubfull. - Gdy verbose ma wartość
full, wyjścia narzędzi są także przekazywane po zakończeniu (osobny bąbelek, obcięty do bezpiecznej długości). Jeśli przełączysz/verbose on|full|offw trakcie uruchomienia, kolejne bąbelki narzędzi uwzględnią nowe ustawienie.
Dyrektywy śledzenia pluginów (/trace)
- Poziomy:
on|off(domyślnie). - Wiadomość zawierająca tylko dyrektywę przełącza wyjście śledzenia pluginów dla sesji i odpowiada
Plugin trace enabled./Plugin trace disabled.. - Dyrektywa inline wpływa tylko na tę wiadomość; w pozostałych przypadkach stosowane są domyślne wartości sesji/globalne.
- Wyślij
/trace(lub/trace:) bez argumentu, aby zobaczyć bieżący poziom śledzenia. /tracejest węższe niż/verbose: ujawnia tylko linie śledzenia/debug należące do pluginu, takie jak podsumowania debugowania Active Memory.- Linie śledzenia mogą pojawiać się w
/statusoraz jako dodatkowa wiadomość diagnostyczna po normalnej odpowiedzi asystenta.
Widoczność rozumowania (/reasoning)
- Poziomy:
on|off|stream. - Wiadomość zawierająca tylko dyrektywę przełącza, czy bloki myślenia są pokazywane w odpowiedziach.
- Gdy jest włączone, rozumowanie jest wysyłane jako osobna wiadomość z prefiksem
Reasoning:. stream(tylko Telegram): strumieniuje rozumowanie do bąbelka wersji roboczej Telegram podczas generowania odpowiedzi, a następnie wysyła końcową odpowiedź bez rozumowania.- Alias:
/reason. - Wyślij
/reasoning(lub/reasoning:) bez argumentu, aby zobaczyć bieżący poziom rozumowania. - Kolejność rozwiązywania: dyrektywa inline, potem nadpisanie sesji, potem domyślna wartość per agent (
agents.list[].reasoningDefault), a następnie wartość zapasowa (off).
Powiązane
- Dokumentacja trybu podwyższonego znajduje się w Tryb podwyższony.
Heartbeats
- Treść sondy Heartbeat to skonfigurowany prompt Heartbeat (domyślnie:
Read HEARTBEAT.md if it exists (workspace context). Follow it strictly. Do not infer or repeat old tasks from prior chats. If nothing needs attention, reply HEARTBEAT_OK.). Dyrektywy inline w wiadomości Heartbeat są stosowane normalnie (ale unikaj zmiany domyślnych wartości sesji z Heartbeatów). - Dostarczanie Heartbeat domyślnie obejmuje tylko końcowy ładunek. Aby wysyłać także osobną wiadomość
Reasoning:(gdy jest dostępna), ustawagents.defaults.heartbeat.includeReasoning: truelub per agentagents.list[].heartbeat.includeReasoning: true.
Web chat UI
- Selektor myślenia w web chat odzwierciedla zapisany poziom sesji z magazynu/configu sesji wejściowej podczas ładowania strony.
- Wybranie innego poziomu natychmiast zapisuje nadpisanie sesji przez
sessions.patch; nie czeka na następne wysłanie i nie jest jednorazowym nadpisaniemthinkingOnce. - Pierwsza opcja to zawsze
Default (<resolved level>), gdzie rozpoznana wartość domyślna pochodzi z profilu myślenia dostawcy aktywnego modelu sesji. - Selektor używa
thinkingOptionszwracanych przez wiersz sesji Gateway. Interfejs przeglądarkowy nie utrzymuje własnej listy regex dostawców; pluginy zarządzają zestawami poziomów specyficznymi dla modelu. /think:<level>nadal działa i aktualizuje ten sam zapisany poziom sesji, więc dyrektywy czatu i selektor pozostają zsynchronizowane.
Profile dostawców
- Pluginy dostawców mogą udostępniać
resolveThinkingProfile(ctx), aby definiować obsługiwane poziomy modelu i wartość domyślną. - Każdy poziom profilu ma zapisany kanoniczny
id(off,minimal,low,medium,high,xhigh,adaptivelubmax) i może zawierać wyświetlanąlabel. Dostawcy binarni używają{ id: "low", label: "on" }. - Opublikowane starsze hooki (
supportsXHighThinking,isBinaryThinkingiresolveDefaultThinkingLevel) pozostają jako adaptery zgodności, ale nowe niestandardowe zestawy poziomów powinny używaćresolveThinkingProfile. - Wiersze Gateway udostępniają
thinkingOptionsithinkingDefault, aby klienci ACP/chat renderowali ten sam profil, którego używa walidacja runtime.