Denkstufen (/think-Direktiven)
Was es bewirkt
- Inline-Direktive in jedem eingehenden Text:
/t <level>,/think:<level>oder/thinking <level>. - Stufen (Aliasse):
off | minimal | low | medium | high | xhigh | adaptive | max- minimal → „denken“
- low → „intensiv denken“
- medium → „noch intensiver denken“
- high → „ultrathink“ (maximales Budget)
- xhigh → „ultrathink+“ (GPT-5.2 + Codex-Modelle und Anthropic Claude Opus 4.7-Aufwand)
- adaptive → vom Anbieter verwaltetes adaptives Denken (unterstützt für Claude 4.6 auf Anthropic/Bedrock und Anthropic Claude Opus 4.7)
- max → maximales Reasoning des Anbieters (derzeit Anthropic Claude Opus 4.7)
x-high,x_high,extra-high,extra highundextra_highwerden aufxhighabgebildet.highestwird aufhighabgebildet.
- Hinweise zu Anbietern:
- Menüs und Auswahllisten für Denkstufen werden durch Anbieterprofile gesteuert. Provider-Plugins deklarieren die genaue Stufenmenge für das ausgewählte Modell, einschließlich Bezeichnungen wie dem binären
on. adaptive,xhighundmaxwerden nur für Anbieter-/Modellprofile angezeigt, die sie unterstützen. Getippte Direktiven für nicht unterstützte Stufen werden mit den gültigen Optionen dieses Modells zurückgewiesen.- Bereits gespeicherte, nicht unterstützte Stufen werden anhand des Rangs des Anbieterprofils neu zugeordnet.
adaptivefällt bei nicht adaptiven Modellen aufmediumzurück, währendxhighundmaxauf die größte unterstützte Stufe ungleichofffür das ausgewählte Modell zurückfallen. - Anthropic Claude 4.6-Modelle verwenden standardmäßig
adaptive, wenn keine explizite Denkstufe gesetzt ist. - Anthropic Claude Opus 4.7 verwendet adaptives Denken nicht standardmäßig. Der Standardwert für den API-Aufwand bleibt vom Anbieter gesteuert, sofern Sie nicht explizit eine Denkstufe setzen.
- Anthropic Claude Opus 4.7 ordnet
/think xhighadaptivem Denken plusoutput_config.effort: "xhigh"zu, weil/thinkeine Denk-Direktive ist undxhighdie Aufwandseinstellung von Opus 4.7 ist. - Anthropic Claude Opus 4.7 stellt auch
/think maxbereit; es wird auf denselben vom Anbieter gesteuerten Pfad für maximalen Aufwand abgebildet. - OpenAI-GPT-Modelle bilden
/thinküber die modellspezifische Unterstützung für Aufwand in der Responses API ab./think offsendetreasoning.effort: "none"nur, wenn das Zielmodell dies unterstützt; andernfalls lässt OpenClaw die deaktivierte Reasoning-Nutzlast weg, statt einen nicht unterstützten Wert zu senden. - MiniMax (
minimax/*) auf dem Anthropic-kompatiblen Streaming-Pfad verwendet standardmäßigthinking: { type: "disabled" }, sofern Sie Denken nicht explizit in den Modellparametern oder Anfrageparametern setzen. Dadurch werden durchgesickertereasoning_content-Deltas aus dem nicht nativen Anthropic-Streamformat von MiniMax vermieden. - Z.AI (
zai/*) unterstützt nur binäres Denken (on/off). Jede Stufe ungleichoffwird alsonbehandelt (auflowabgebildet). - Moonshot (
moonshot/*) bildet/think offaufthinking: { type: "disabled" }und jede Stufe ungleichoffaufthinking: { type: "enabled" }ab. Wenn Denken aktiviert ist, akzeptiert Moonshot fürtool_choicenurauto|none; OpenClaw normalisiert inkompatible Werte aufauto.
- Menüs und Auswahllisten für Denkstufen werden durch Anbieterprofile gesteuert. Provider-Plugins deklarieren die genaue Stufenmenge für das ausgewählte Modell, einschließlich Bezeichnungen wie dem binären
Auflösungsreihenfolge
- Inline-Direktive in der Nachricht (gilt nur für diese Nachricht).
- Sitzungsüberschreibung (gesetzt durch Senden einer Nachricht, die nur aus einer Direktive besteht).
- Standard pro Agent (
agents.list[].thinkingDefaultin der Konfiguration). - Globaler Standard (
agents.defaults.thinkingDefaultin der Konfiguration). - Rückfall: vom Anbieter deklarierter Standard, falls verfügbar,
lowfür andere Katalogmodelle mit Reasoning-Fähigkeit, andernfallsoff.
Einen Sitzungsstandard festlegen
- Senden Sie eine Nachricht, die nur aus der Direktive besteht (Leerraum erlaubt), z. B.
/think:mediumoder/t high. - Das bleibt für die aktuelle Sitzung erhalten (standardmäßig pro Absender); wird durch
/think:offoder einen Sitzungs-Idle-Reset gelöscht. - Eine Bestätigungsantwort wird gesendet (
Thinking level set to high./Thinking disabled.). Wenn die Stufe ungültig ist (z. B./thinking big), wird der Befehl mit einem Hinweis zurückgewiesen und der Sitzungszustand bleibt unverändert. - Senden Sie
/think(oder/think:) ohne Argument, um die aktuelle Denkstufe anzuzeigen.
Anwendung nach Agent
- Embedded Pi: Die aufgelöste Stufe wird an die In-Process-Laufzeit des Pi-Agenten übergeben.
Fast-Modus (/fast)
- Stufen:
on|off. - Eine Nachricht, die nur aus einer Direktive besteht, schaltet eine Sitzungsüberschreibung für den Fast-Modus um und antwortet mit
Fast mode enabled./Fast mode disabled.. - Senden Sie
/fast(oder/fast status) ohne Modus, um den aktuell wirksamen Fast-Modus-Status anzuzeigen. - OpenClaw löst den Fast-Modus in dieser Reihenfolge auf:
- Inline-/direktivenbasiert nur
/fast on|off - Sitzungsüberschreibung
- Standard pro Agent (
agents.list[].fastModeDefault) - Konfiguration pro Modell:
agents.defaults.models["<provider>/<model>"].params.fastMode - Rückfall:
off
- Inline-/direktivenbasiert nur
- Für
openai/*wird der Fast-Modus auf priorisierte OpenAI-Verarbeitung abgebildet, indem bei unterstützten Responses-Anfragenservice_tier=prioritygesendet wird. - Für
openai-codex/*sendet der Fast-Modus dasselbe Flagservice_tier=prioritybei Codex-Responses. OpenClaw verwendet einen gemeinsamen Schalter/fastüber beide Auth-Pfade hinweg. - Für direkte öffentliche
anthropic/*-Anfragen, einschließlich OAuth-authentifiziertem Verkehr anapi.anthropic.com, wird der Fast-Modus auf Anthropic-Service-Tiers abgebildet:/fast onsetztservice_tier=auto,/fast offsetztservice_tier=standard_only. - Für
minimax/*auf dem Anthropic-kompatiblen Pfad schreibt/fast on(oderparams.fastMode: true)MiniMax-M2.7inMiniMax-M2.7-highspeedum. - Explizite Anthropic-Modellparameter
serviceTier/service_tierüberschreiben den Fast-Modus-Standard, wenn beide gesetzt sind. OpenClaw überspringt weiterhin die Einfügung von Anthropic-Service-Tiers für nicht-Anthropic-Proxy-Basis-URLs.
Direktiven für Ausführlichkeit (/verbose oder /v)
- Stufen:
on(minimal) |full|off(Standard). - Eine Nachricht, die nur aus einer Direktive besteht, schaltet die Sitzungsausführlichkeit um und antwortet mit
Verbose logging enabled./Verbose logging disabled.; ungültige Stufen geben einen Hinweis zurück, ohne den Zustand zu ändern. /verbose offspeichert eine explizite Sitzungsüberschreibung; löschen Sie sie in der Sitzungen-UI, indem Sieinheritwählen.- Eine Inline-Direktive wirkt sich nur auf diese Nachricht aus; Sitzungs-/globale Standards gelten sonst.
- Senden Sie
/verbose(oder/verbose:) ohne Argument, um die aktuelle Ausführlichkeitsstufe anzuzeigen. - Wenn die Ausführlichkeit aktiviert ist, senden Agents, die strukturierte Tool-Ergebnisse ausgeben (Pi, andere JSON-Agents), jeden Tool-Aufruf als eigene Nur-Metadaten-Nachricht zurück, sofern verfügbar mit dem Präfix
<emoji> <tool-name>: <arg>(Pfad/Befehl). Diese Tool-Zusammenfassungen werden gesendet, sobald jedes Tool startet (separate Nachrichtenblasen), nicht als Streaming-Deltas. - Zusammenfassungen von Tool-Fehlern bleiben im normalen Modus sichtbar, aber rohe Fehlerdetailsuffixe werden ausgeblendet, sofern
verbosenichtonoderfullist. - Wenn
verboseauffullsteht, werden Tool-Ausgaben nach Abschluss ebenfalls weitergeleitet (separate Blase, auf eine sichere Länge gekürzt). Wenn Sie/verbose on|full|offwährend eines laufenden Vorgangs umschalten, beachten nachfolgende Tool-Blasen die neue Einstellung.
Plugin-Trace-Direktiven (/trace)
- Stufen:
on|off(Standard). - Eine Nachricht, die nur aus einer Direktive besteht, schaltet die Plugin-Trace-Ausgabe der Sitzung um und antwortet mit
Plugin trace enabled./Plugin trace disabled.. - Eine Inline-Direktive wirkt sich nur auf diese Nachricht aus; Sitzungs-/globale Standards gelten sonst.
- Senden Sie
/trace(oder/trace:) ohne Argument, um die aktuelle Trace-Stufe anzuzeigen. /traceist enger gefasst als/verbose: Es zeigt nur Plugin-eigene Trace-/Debug-Zeilen wie Active Memory-Debugzusammenfassungen an.- Trace-Zeilen können in
/statusund als diagnostische Folgemeldung nach der normalen Assistant-Antwort erscheinen.
Sichtbarkeit von Reasoning (/reasoning)
- Stufen:
on|off|stream. - Eine Nachricht, die nur aus einer Direktive besteht, schaltet um, ob Thinking-Blöcke in Antworten angezeigt werden.
- Wenn aktiviert, wird Reasoning als separate Nachricht mit dem Präfix
Reasoning:gesendet. stream(nur Telegram): streamt Reasoning in die Telegram-Entwurfsblase, während die Antwort erzeugt wird, und sendet dann die endgültige Antwort ohne Reasoning.- Alias:
/reason. - Senden Sie
/reasoning(oder/reasoning:) ohne Argument, um die aktuelle Reasoning-Stufe anzuzeigen. - Auflösungsreihenfolge: Inline-Direktive, dann Sitzungsüberschreibung, dann Standard pro Agent (
agents.list[].reasoningDefault), dann Rückfall (off).
Verwandt
- Die Dokumentation zum Elevated-Modus befindet sich unter Elevated mode.
Heartbeats
- Der Nachrichtentext für Heartbeat-Probes ist die konfigurierte Heartbeat-Eingabeaufforderung (Standard:
Read HEARTBEAT.md if it exists (workspace context). Follow it strictly. Do not infer or repeat old tasks from prior chats. If nothing needs attention, reply HEARTBEAT_OK.). Inline-Direktiven in einer Heartbeat-Nachricht gelten wie üblich (vermeiden Sie es jedoch, Sitzungsstandards durch Heartbeats zu ändern). - Die Heartbeat-Zustellung verwendet standardmäßig nur die endgültige Nutzlast. Um zusätzlich die separate Nachricht
Reasoning:zu senden (falls verfügbar), setzen Sieagents.defaults.heartbeat.includeReasoning: trueoder pro Agentagents.list[].heartbeat.includeReasoning: true.
Web-Chat-UI
- Der Thinking-Selektor im Web-Chat spiegelt beim Laden der Seite die gespeicherte Stufe der Sitzung aus dem eingehenden Sitzungsspeicher bzw. der Konfiguration wider.
- Das Auswählen einer anderen Stufe schreibt die Sitzungsüberschreibung sofort über
sessions.patch; es wartet nicht auf das nächste Senden und ist keine einmalige ÜberschreibungthinkingOnce. - Die erste Option ist immer
Default (<resolved level>), wobei der aufgelöste Standard aus dem Thinking-Profil des Anbieters für das aktive Sitzungsmodell stammt. - Die Auswahl verwendet
thinkingOptions, die von der Gateway-Sitzungszeile zurückgegeben werden. Die Browser-UI führt keine eigene Regex-Liste für Anbieter; Plugins besitzen die modellspezifischen Stufenmengen. /think:<level>funktioniert weiterhin und aktualisiert dieselbe gespeicherte Sitzungsstufe, sodass Chat-Direktiven und die Auswahl synchron bleiben.
Anbieterprofile
- Provider-Plugins können
resolveThinkingProfile(ctx)bereitstellen, um die unterstützten Stufen und den Standard des Modells zu definieren. - Jede Profilstufe hat eine gespeicherte kanonische
id(off,minimal,low,medium,high,xhigh,adaptiveodermax) und kann eine Anzeige-labelenthalten. Binäre Anbieter verwenden{ id: "low", label: "on" }. - Veröffentlichten Legacy-Hooks (
supportsXHighThinking,isBinaryThinkingundresolveDefaultThinkingLevel) bleiben als Kompatibilitätsadapter erhalten, aber neue benutzerdefinierte Stufenmengen solltenresolveThinkingProfileverwenden. - Gateway-Zeilen stellen
thinkingOptionsundthinkingDefaultbereit, damit ACP-/Chat-Clients dasselbe Profil rendern, das auch die Laufzeitvalidierung verwendet.