Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
Wat het doet
- Inline-instructie in elke inkomende body:
/t <level>,/think:<level>, of/thinking <level>. - Niveaus (aliassen):
off | minimal | low | medium | high | xhigh | adaptive | max- minimal → “think”
- low → “think hard”
- medium → “think harder”
- high → “ultrathink” (maximaal budget)
- xhigh → “ultrathink+” (GPT-5.2+ en Codex-modellen, plus Anthropic Claude Opus 4.7 effort)
- adaptive → door de provider beheerd adaptief denken (ondersteund voor Claude 4.6 op Anthropic/Bedrock, Anthropic Claude Opus 4.7 en Google Gemini dynamisch denken)
- max → maximale reasoning van provider (Anthropic Claude Opus 4.7; Ollama koppelt dit aan de hoogste native
think-inspanning) x-high,x_high,extra-high,extra highenextra_highworden gekoppeld aanxhigh.highestwordt gekoppeld aanhigh.
- Provider-opmerkingen:
- Denkmenu’s en keuzelijsten worden aangestuurd door providerprofielen. Provider-Plugins declareren de exacte niveauset voor het geselecteerde model, inclusief labels zoals binair
on. adaptive,xhighenmaxworden alleen aangeboden voor provider-/modelprofielen die ze ondersteunen. Getypte instructies voor niet-ondersteunde niveaus worden geweigerd met de geldige opties van dat model.- Bestaande opgeslagen niet-ondersteunde niveaus worden opnieuw gekoppeld op basis van de rangorde in het providerprofiel.
adaptivevalt terug opmediumbij niet-adaptieve modellen, terwijlxhighenmaxterugvallen op het grootste ondersteunde niet-off-niveau voor het geselecteerde model. - Anthropic Claude 4.6-modellen gebruiken standaard
adaptivewanneer er geen expliciet denkniveau is ingesteld. - Anthropic Claude Opus 4.7 gebruikt niet standaard adaptief denken. De standaard API-effort blijft eigendom van de provider, tenzij je expliciet een denkniveau instelt.
- Anthropic Claude Opus 4.7 koppelt
/think xhighaan adaptief denken plusoutput_config.effort: "xhigh", omdat/thinkeen denkinstructie is enxhighde effort-instelling van Opus 4.7 is. - Anthropic Claude Opus 4.7 biedt ook
/think max; dit wordt gekoppeld aan hetzelfde door de provider beheerde pad voor maximale effort. - Ollama-modellen met denkondersteuning bieden
/think low|medium|high|max;maxwordt gekoppeld aan nativethink: "high"omdat de native API van Ollama de effort-stringslow,mediumenhighaccepteert. - OpenAI GPT-modellen koppelen
/thinkvia modelspecifieke effort-ondersteuning in de Responses API./think offverzendtreasoning.effort: "none"alleen wanneer het doelmodel dit ondersteunt; anders laat OpenClaw de uitgeschakelde reasoning-payload weg in plaats van een niet-ondersteunde waarde te verzenden. - Aangepaste OpenAI-compatibele catalogusingangen kunnen
/think xhighinschakelen doormodels.providers.<provider>.models[].compat.supportedReasoningEffortszo in te stellen dat"xhigh"is opgenomen. Dit gebruikt dezelfde compat-metadata die uitgaande OpenAI-reasoning-effort-payloads koppelt, zodat menu’s, sessievalidatie, agent-CLI enllm-taskovereenkomen met het transportgedrag. - Verouderde geconfigureerde OpenRouter Hunter Alpha-referenties slaan proxy-reasoning-injectie over omdat die buiten gebruik gestelde route definitieve antwoordtekst via reasoningvelden kon retourneren.
- Google Gemini koppelt
/think adaptiveaan het door Gemini’s provider beheerde dynamische denken. Gemini 3-verzoeken laten een vastethinkingLevelweg, terwijl Gemini 2.5-verzoekenthinkingBudget: -1verzenden; vaste niveaus worden nog steeds gekoppeld aan de dichtstbijzijnde Gemini-thinkingLevelof het dichtstbijzijnde budget voor die modelfamilie. - MiniMax (
minimax/*) op het Anthropic-compatibele streamingpad gebruikt standaardthinking: { type: "disabled" }, tenzij je expliciet denken instelt in modelparameters of aanvraagparameters. Dit voorkomt gelektereasoning_content-delta’s uit MiniMax’ niet-native Anthropic-streamformaat. - Z.AI (
zai/*) ondersteunt alleen binair denken (on/off). Elk niet-off-niveau wordt behandeld alson(gekoppeld aanlow). - Moonshot (
moonshot/*) koppelt/think offaanthinking: { type: "disabled" }en elk niet-off-niveau aanthinking: { type: "enabled" }. Wanneer denken is ingeschakeld, accepteert Moonshot alleentool_choiceauto|none; OpenClaw normaliseert incompatibele waarden naarauto.
- Denkmenu’s en keuzelijsten worden aangestuurd door providerprofielen. Provider-Plugins declareren de exacte niveauset voor het geselecteerde model, inclusief labels zoals binair
Resolutievolgorde
- Inline-instructie in het bericht (geldt alleen voor dat bericht).
- Sessie-override (ingesteld door een bericht te verzenden dat alleen een instructie bevat).
- Standaard per agent (
agents.list[].thinkingDefaultin configuratie). - Globale standaard (
agents.defaults.thinkingDefaultin configuratie). - Terugval: door provider gedeclareerde standaard wanneer beschikbaar; anders worden modellen met reasoning-mogelijkheid opgelost naar
mediumof het dichtstbijzijnde ondersteunde niet-off-niveau voor dat model, en modellen zonder reasoning blijvenoff.
Een sessiestandaard instellen
- Verstuur een bericht dat alleen de instructie bevat (witruimte toegestaan), bijvoorbeeld
/think:mediumof/t high. - Dat blijft gelden voor de huidige sessie (standaard per afzender); gewist door
/think:offof een reset na sessie-inactiviteit. - Er wordt een bevestigingsantwoord verzonden (
Thinking level set to high./Thinking disabled.). Als het niveau ongeldig is (bijvoorbeeld/thinking big), wordt de opdracht geweigerd met een hint en blijft de sessiestatus ongewijzigd. - Verstuur
/think(of/think:) zonder argument om het huidige denkniveau te zien.
Toepassing per agent
- Embedded Pi: het opgeloste niveau wordt doorgegeven aan de in-process Pi-agentruntime.
Snelle modus (/fast)
- Niveaus:
on|off. - Een bericht dat alleen een instructie bevat, schakelt een sessie-override voor snelle modus om en antwoordt
Fast mode enabled./Fast mode disabled.. - Verstuur
/fast(of/fast status) zonder modus om de huidige effectieve status van snelle modus te zien. - OpenClaw lost snelle modus in deze volgorde op:
- Inline/alleen-instructie
/fast on|off - Sessie-override
- Standaard per agent (
agents.list[].fastModeDefault) - Configuratie per model:
agents.defaults.models["<provider>/<model>"].params.fastMode - Terugval:
off
- Inline/alleen-instructie
- Voor
openai/*wordt snelle modus gekoppeld aan OpenAI-prioriteitsverwerking doorservice_tier=priorityte verzenden bij ondersteunde Responses-verzoeken. - Voor
openai-codex/*verzendt snelle modus dezelfdeservice_tier=priority-vlag bij Codex Responses. OpenClaw behoudt een gedeelde/fast-schakelaar voor beide auth-paden. - Voor directe publieke
anthropic/*-verzoeken, inclusief via OAuth geauthenticeerd verkeer dat naarapi.anthropic.comwordt verzonden, wordt snelle modus gekoppeld aan Anthropic-servicelagen:/fast onsteltservice_tier=autoin,/fast offsteltservice_tier=standard_onlyin. - Voor
minimax/*op het Anthropic-compatibele pad herschrijft/fast on(ofparams.fastMode: true)MiniMax-M2.7naarMiniMax-M2.7-highspeed. - Expliciete Anthropic-
serviceTier/service_tier-modelparameters overschrijven de standaard van snelle modus wanneer beide zijn ingesteld. OpenClaw slaat Anthropic-service-tier-injectie nog steeds over voor niet-Anthropic proxybasis-URL’s. /statustoontFastalleen wanneer snelle modus is ingeschakeld.
Uitgebreide instructies (/verbose of /v)
- Niveaus:
on(minimaal) |full|off(standaard). - Een bericht dat alleen een instructie bevat, schakelt uitgebreide logging voor de sessie om en antwoordt
Verbose logging enabled./Verbose logging disabled.; ongeldige niveaus retourneren een hint zonder de status te wijzigen. /verbose offslaat een expliciete sessie-override op; wis deze via de Sessions UI doorinheritte kiezen.- Inline-instructie beïnvloedt alleen dat bericht; sessie-/globale standaarden gelden anders.
- Verstuur
/verbose(of/verbose:) zonder argument om het huidige verbose-niveau te zien. - Wanneer verbose is ingeschakeld, sturen agents die gestructureerde toolresultaten uitzenden (Pi, andere JSON-agents) elke toolaanroep terug als een eigen bericht met alleen metadata, voorafgegaan door
<emoji> <tool-name>: <arg>wanneer beschikbaar (pad/opdracht). Deze toolsamenvattingen worden verzonden zodra elke tool start (aparte bubbels), niet als streaming-delta’s. - Samenvattingen van toolfouten blijven zichtbaar in normale modus, maar ruwe foutdetailsuffixen worden verborgen tenzij verbose
onoffullis. - Wanneer verbose
fullis, worden tooluitvoeren na voltooiing ook doorgestuurd (aparte bubbel, afgekapt tot een veilige lengte). Als je/verbose on|full|offomschakelt terwijl een run bezig is, respecteren latere toolbubbels de nieuwe instelling.
Plugin-trace-instructies (/trace)
- Niveaus:
on|off(standaard). - Een bericht dat alleen een instructie bevat, schakelt sessie-Plugin-trace-uitvoer om en antwoordt
Plugin trace enabled./Plugin trace disabled.. - Inline-instructie beïnvloedt alleen dat bericht; sessie-/globale standaarden gelden anders.
- Verstuur
/trace(of/trace:) zonder argument om het huidige traceniveau te zien. /traceis smaller dan/verbose: het toont alleen trace-/debugregels die eigendom zijn van Plugins, zoals Active Memory-debugsamenvattingen.- Traceregels kunnen verschijnen in
/statusen als een diagnostisch vervolgbericht na het normale assistentantwoord.
Zichtbaarheid van reasoning (/reasoning)
- Niveaus:
on|off|stream. - Een bericht dat alleen een instructie bevat, schakelt om of denkblokken in antwoorden worden weergegeven.
- Wanneer ingeschakeld, wordt reasoning verzonden als een apart bericht met het voorvoegsel
Reasoning:. stream(alleen Telegram): streamt reasoning naar de Telegram-conceptbubbel terwijl het antwoord wordt gegenereerd, en verzendt daarna het definitieve antwoord zonder reasoning.- Alias:
/reason. - Verstuur
/reasoning(of/reasoning:) zonder argument om het huidige reasoningniveau te zien. - Resolutievolgorde: inline-instructie, daarna sessie-override, daarna standaard per agent (
agents.list[].reasoningDefault), daarna terugval (off).
<think>...</think>-blokken blijven verborgen in normale antwoorden, en niet-gesloten reasoning na tekst die al zichtbaar is, wordt ook verborgen. Als een antwoord volledig is verpakt in een enkele niet-gesloten openingstag en anders als lege tekst zou worden afgeleverd, verwijdert OpenClaw de misvormde openingstag en levert de resterende tekst af.
Gerelateerd
- Documentatie voor verhoogde modus staat in Verhoogde modus.
Heartbeats
- De Heartbeat-probebody is de geconfigureerde Heartbeat-prompt (standaard:
Read HEARTBEAT.md if it exists (workspace context). Follow it strictly. Do not infer or repeat old tasks from prior chats. If nothing needs attention, reply HEARTBEAT_OK.). Inline-instructies in een Heartbeat-bericht gelden zoals gebruikelijk (maar vermijd het wijzigen van sessiestandaarden vanuit Heartbeats). - Heartbeat-bezorging gebruikt standaard alleen de definitieve payload. Om ook het aparte
Reasoning:-bericht te verzenden (wanneer beschikbaar), stel jeagents.defaults.heartbeat.includeReasoning: trueof per agentagents.list[].heartbeat.includeReasoning: truein.
Webchat-UI
- De denkselector van de webchat weerspiegelt het opgeslagen niveau van de sessie uit de inkomende sessiestore/configuratie wanneer de pagina wordt geladen.
- Een ander niveau kiezen schrijft de sessie-override onmiddellijk weg via
sessions.patch; dit wacht niet op de volgende verzending en is geen eenmaligethinkingOnce-override. - De eerste optie is altijd
Default (<resolved level>), waarbij de opgeloste standaard afkomstig is van het provider-denkprofiel van het actieve sessiemodel plus dezelfde terugvallogica die/statusensession_statusgebruiken. - De keuzelijst gebruikt
thinkingLevelsdie worden geretourneerd door de Gateway-sessierij/standaarden, waarbijthinkingOptionsbehouden blijft als legacy labellijst. De browser-UI behoudt geen eigen provider-regexlijst; Plugins zijn eigenaar van modelspecifieke niveausets. /think:<level>werkt nog steeds en werkt hetzelfde opgeslagen sessieniveau bij, zodat chatinstructies en de keuzelijst gesynchroniseerd blijven.
Providerprofielen
- Provider-plugins kunnen
resolveThinkingProfile(ctx)beschikbaar stellen om de ondersteunde niveaus en standaardwaarde van het model te definiëren. - Provider-plugins die Claude-modellen proxyen, moeten
resolveClaudeThinkingProfile(modelId)uitopenclaw/plugin-sdk/provider-model-sharedhergebruiken, zodat directe Anthropic-catalogi en proxycatalogi op elkaar afgestemd blijven. - Elk profielniveau heeft een opgeslagen canonieke
id(off,minimal,low,medium,high,xhigh,adaptiveofmax) en kan een weergave-labelbevatten. Binaire providers gebruiken{ id: "low", label: "on" }. - Tool-plugins die een expliciete thinking-override moeten valideren, moeten
api.runtime.agent.resolveThinkingPolicy({ provider, model })plusapi.runtime.agent.normalizeThinkingLevel(...)gebruiken; ze mogen geen eigen lijsten met provider-/modelniveaus bijhouden. - Tool-plugins met toegang tot geconfigureerde aangepaste modelmetadata kunnen
catalogdoorgeven aanresolveThinkingPolicy, zodat opt-ins voorcompat.supportedReasoningEffortsworden weerspiegeld in validatie aan de Plugin-kant. - Gepubliceerde legacy hooks (
supportsXHighThinking,isBinaryThinkingenresolveDefaultThinkingLevel) blijven beschikbaar als compatibiliteitsadapters, maar nieuwe aangepaste niveausets moetenresolveThinkingProfilegebruiken. - Gateway-rijen/-standaardwaarden stellen
thinkingLevels,thinkingOptionsenthinkingDefaultbeschikbaar, zodat ACP-/chatclients dezelfde profiel-id’s en labels weergeven die runtimevalidatie gebruikt.