Thinking Levels (/think-Direktiven)
Was das bewirkt
- Inline-Direktive in jedem eingehenden Nachrichtentext:
/t <level>,/think:<level>oder/thinking <level>. - Levels (Aliasse):
off | minimal | low | medium | high | xhigh | adaptive- minimal → „think“
- low → „think hard“
- medium → „think harder“
- high → „ultrathink“ (maximales Budget)
- xhigh → „ultrathink+“ (nur GPT-5.2- und Codex-Modelle)
- adaptive → vom Provider verwaltetes adaptives Reasoning-Budget (unterstützt für die Modellfamilie Anthropic Claude 4.6)
x-high,x_high,extra-high,extra highundextra_highwerden aufxhighabgebildet.highest,maxwerden aufhighabgebildet.
- Hinweise zu Providern:
- Anthropic-Claude-4.6-Modelle verwenden standardmäßig
adaptive, wenn kein explizites Thinking Level gesetzt ist. - MiniMax (
minimax/*) auf dem Anthropic-kompatiblen Streaming-Pfad verwendet standardmäßigthinking: { type: "disabled" }, sofern Sie Thinking nicht explizit in Modellparametern oder Request-Parametern setzen. Dadurch werden durchgesickerte Deltas vonreasoning_contentaus dem nicht nativen Anthropic-Stream-Format von MiniMax vermieden. - Z.AI (
zai/*) unterstützt nur binäres Thinking (on/off). Jedes Level außeroffwird alsonbehandelt (auflowabgebildet). - Moonshot (
moonshot/*) bildet/think offaufthinking: { type: "disabled" }und jedes Level außeroffaufthinking: { type: "enabled" }ab. Wenn Thinking aktiviert ist, akzeptiert Moonshot fürtool_choicenurauto|none; OpenClaw normalisiert inkompatible Werte aufauto.
- Anthropic-Claude-4.6-Modelle verwenden standardmäßig
Auflösungsreihenfolge
- Inline-Direktive in der Nachricht (gilt nur für diese Nachricht).
- Sitzungsüberschreibung (gesetzt durch das Senden einer Nachricht, die nur aus einer Direktive besteht).
- Standardwert pro Agent (
agents.list[].thinkingDefaultin der Konfiguration). - Globaler Standardwert (
agents.defaults.thinkingDefaultin der Konfiguration). - Fallback:
adaptivefür Anthropic-Claude-4.6-Modelle,lowfür andere reasoning-fähige Modelle, sonstoff.
Einen Sitzungsstandard festlegen
- Senden Sie eine Nachricht, die nur aus der Direktive besteht (Whitespace ist erlaubt), zum Beispiel
/think:mediumoder/t high. - Das gilt dann für die aktuelle Sitzung (standardmäßig pro Absender); zurückgesetzt durch
/think:offoder durch den Leerlauf-Reset der Sitzung. - Es wird eine Bestätigungsantwort gesendet (
Thinking level set to high./Thinking disabled.). Wenn das Level ungültig ist (z. B./thinking big), wird der Befehl mit einem Hinweis abgelehnt und der Sitzungsstatus bleibt unverändert. - Senden Sie
/think(oder/think:) ohne Argument, um das aktuelle Thinking Level anzuzeigen.
Anwendung pro Agent
- Embedded Pi: Das aufgelöste Level wird an die In-Process-Runtime des Pi-Agenten übergeben.
Fast mode (/fast)
- Levels:
on|off. - Eine Nachricht, die nur aus einer Direktive besteht, schaltet eine Sitzungsüberschreibung für den Fast-Mode um und antwortet mit
Fast mode enabled./Fast mode disabled.. - Senden Sie
/fast(oder/fast status) ohne Modus, um den aktuellen effektiven Status des Fast-Mode anzuzeigen. - OpenClaw löst den Fast-Mode in dieser Reihenfolge auf:
- Inline-/direktivenbasiertes
/fast on|off - Sitzungsüberschreibung
- Standardwert pro Agent (
agents.list[].fastModeDefault) - Konfiguration pro Modell:
agents.defaults.models["<provider>/<model>"].params.fastMode - Fallback:
off
- Inline-/direktivenbasiertes
- Für
openai/*wird der Fast-Mode auf OpenAI-Prioritätsverarbeitung abgebildet, indem bei unterstützten Responses-Requestsservice_tier=prioritygesendet wird. - Für
openai-codex/*sendet der Fast-Mode dasselbe Flagservice_tier=prioritybei Codex-Responses. OpenClaw behält einen gemeinsamen Schalter/fastüber beide Auth-Pfade hinweg bei. - Für direkte öffentliche
anthropic/*-Requests, einschließlich per OAuth authentifiziertem Traffic anapi.anthropic.com, wird der Fast-Mode auf Anthropic-Service-Tiers abgebildet:/fast onsetztservice_tier=auto,/fast offsetztservice_tier=standard_only. - Für
minimax/*auf dem Anthropic-kompatiblen Pfad schreibt/fast on(oderparams.fastMode: true)MiniMax-M2.7inMiniMax-M2.7-highspeedum. - Explizite Anthropic-Modellparameter
serviceTier/service_tierüberschreiben den Standardwert des Fast-Mode, wenn beides gesetzt ist. OpenClaw überspringt weiterhin das Einfügen von Anthropic-Service-Tiers für nicht-Anthropic-Proxy-Base-URLs.
Verbose-Direktiven (/verbose oder /v)
- Levels:
on(minimal) |full|off(Standard). - Eine Nachricht, die nur aus einer Direktive besteht, schaltet Verbose auf Sitzungsebene um und antwortet mit
Verbose logging enabled./Verbose logging disabled.; ungültige Levels geben einen Hinweis zurück, ohne den Status zu ändern. /verbose offspeichert eine explizite Sitzungsüberschreibung; löschen Sie sie in der Sessions-UI, indem Sieinheritwählen.- Eine Inline-Direktive wirkt sich nur auf diese Nachricht aus; ansonsten gelten Sitzungs-/globale Standardwerte.
- Senden Sie
/verbose(oder/verbose:) ohne Argument, um das aktuelle Verbose-Level anzuzeigen. - Wenn Verbose aktiviert ist, senden Agents, die strukturierte Tool-Ergebnisse ausgeben (Pi, andere JSON-Agents), jeden Tool-Aufruf als eigene Nachricht nur mit Metadaten zurück, sofern verfügbar mit dem Präfix
<emoji> <tool-name>: <arg>(Pfad/Befehl). Diese Tool-Zusammenfassungen werden gesendet, sobald jedes Tool startet (separate Bubbles), nicht als Streaming-Deltas. - Zusammenfassungen von Tool-Fehlern bleiben im normalen Modus sichtbar, aber rohe Fehlerdetails am Ende werden ausgeblendet, sofern Verbose nicht
onoderfullist. - Wenn Verbose
fullist, werden Tool-Ausgaben nach Abschluss ebenfalls weitergeleitet (separate Bubble, auf eine sichere Länge gekürzt). Wenn Sie/verbose on|full|offändern, während eine Ausführung noch läuft, berücksichtigen nachfolgende Tool-Bubbles die neue Einstellung.
Sichtbarkeit von Reasoning (/reasoning)
- Levels:
on|off|stream. - Eine Nachricht, die nur aus einer Direktive besteht, schaltet um, ob Thinking-Blöcke in Antworten angezeigt werden.
- Wenn aktiviert, wird Reasoning als separate Nachricht mit dem Präfix
Reasoning:gesendet. stream(nur Telegram): streamt Reasoning in die Telegram-Entwurfs-Bubble, während die Antwort generiert wird, und sendet dann die endgültige Antwort ohne Reasoning.- Alias:
/reason. - Senden Sie
/reasoning(oder/reasoning:) ohne Argument, um das aktuelle Reasoning-Level anzuzeigen. - Auflösungsreihenfolge: Inline-Direktive, dann Sitzungsüberschreibung, dann Standardwert pro Agent (
agents.list[].reasoningDefault), dann Fallback (off).
Verwandt
- Docs zum Elevated mode finden Sie unter Elevated mode.
Heartbeats
- Der Nachrichtentext des Heartbeat-Probes ist der konfigurierte Heartbeat-Prompt (Standard:
Read HEARTBEAT.md if it exists (workspace context). Follow it strictly. Do not infer or repeat old tasks from prior chats. If nothing needs attention, reply HEARTBEAT_OK.). Inline-Direktiven in einer Heartbeat-Nachricht gelten wie üblich (ändern Sie jedoch möglichst keine Sitzungsstandardwerte durch Heartbeats). - Die Zustellung von Heartbeats verwendet standardmäßig nur das endgültige Payload. Um auch die separate Nachricht
Reasoning:zu senden (wenn verfügbar), setzen Sieagents.defaults.heartbeat.includeReasoning: trueoder pro Agentagents.list[].heartbeat.includeReasoning: true.
Web-Chat-UI
- Der Thinking-Selektor im Web-Chat spiegelt beim Laden der Seite das gespeicherte Level der Sitzung aus dem eingehenden Sitzungs-Store/der Konfiguration wider.
- Wenn ein anderes Level ausgewählt wird, schreibt dies die Sitzungsüberschreibung sofort über
sessions.patch; es wartet nicht auf das nächste Senden und ist keine einmalige ÜberschreibungthinkingOnce. - Die erste Option ist immer
Default (<resolved level>), wobei der aufgelöste Standardwert vom aktiven Sitzungsmodell kommt:adaptivefür Claude 4.6 auf Anthropic/Bedrock,lowfür andere reasoning-fähige Modelle, sonstoff. - Der Auswahlbereich bleibt providerbewusst:
- die meisten Provider zeigen
off | minimal | low | medium | high | adaptive - Z.AI zeigt binär
off | on
- die meisten Provider zeigen
/think:<level>funktioniert weiterhin und aktualisiert dasselbe gespeicherte Sitzungslevel, sodass Chat-Direktiven und Auswahlfeld synchron bleiben.