Naar hoofdinhoud gaan

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

Model- en auth-profiel-Q&A. Voor installatie, sessies, Gateway, kanalen en probleemoplossing, zie de hoofd-FAQ.

Modellen: standaardinstellingen, selectie, aliassen, wisselen

Het standaardmodel van OpenClaw is wat je instelt als:
agents.defaults.model.primary
Naar modellen wordt verwezen als provider/model (voorbeeld: openai/gpt-5.5 of openai-codex/gpt-5.5). Als je de provider weglaat, probeert OpenClaw eerst een alias, daarna een unieke overeenkomst met een geconfigureerde provider voor die exacte model-id, en valt pas daarna terug op de geconfigureerde standaardprovider als verouderd compatibiliteitspad. Als die provider het geconfigureerde standaardmodel niet meer aanbiedt, valt OpenClaw terug op de eerste geconfigureerde provider/model in plaats van een verouderde standaard van een verwijderde provider te tonen. Je moet provider/model nog steeds expliciet instellen.
Aanbevolen standaard: gebruik het sterkste model van de nieuwste generatie dat beschikbaar is in je providerstack. Voor agents met tools of niet-vertrouwde invoer: geef modelsterkte prioriteit boven kosten. Voor routinematige/chat met laag risico: gebruik goedkopere fallback-modellen en routeer op agentrol.MiniMax heeft eigen documentatie: MiniMax en Lokale modellen.Vuistregel: gebruik het beste model dat je kunt betalen voor werk met hoge impact, en een goedkoper model voor routinematige chat of samenvattingen. Je kunt modellen per agent routeren en sub-agents gebruiken om lange taken te parallelliseren (elke sub-agent verbruikt tokens). Zie Modellen en Sub-agents.Sterke waarschuwing: zwakkere/overmatig gekwantiseerde modellen zijn kwetsbaarder voor prompt injection en onveilig gedrag. Zie Beveiliging.Meer context: Modellen.
Gebruik modelopdrachten of bewerk alleen de model-velden. Vermijd volledige configuratievervangingen.Veilige opties:
  • /model in chat (snel, per sessie)
  • openclaw models set ... (werkt alleen modelconfiguratie bij)
  • openclaw configure --section model (interactief)
  • bewerk agents.defaults.model in ~/.openclaw/openclaw.json
Vermijd config.apply met een gedeeltelijk object, tenzij je de hele configuratie wilt vervangen. Inspecteer bij RPC-bewerkingen eerst met config.schema.lookup en gebruik bij voorkeur config.patch. De lookup-payload geeft je het genormaliseerde pad, oppervlakkige schemadocumentatie/-beperkingen en samenvattingen van directe onderliggende items. voor gedeeltelijke updates. Als je de configuratie hebt overschreven, herstel dan vanuit een back-up of voer openclaw doctor opnieuw uit om te repareren.Documentatie: Modellen, Configureren, Configuratie, Doctor.
Ja. Ollama is de eenvoudigste route voor lokale modellen.Snelste installatie:
  1. Installeer Ollama vanaf https://ollama.com/download
  2. Haal een lokaal model op, zoals ollama pull gemma4
  3. Als je ook cloudmodellen wilt, voer dan ollama signin uit
  4. Voer openclaw onboard uit en kies Ollama
  5. Kies Local of Cloud + Local
Opmerkingen:
  • Cloud + Local geeft je cloudmodellen plus je lokale Ollama-modellen
  • cloudmodellen zoals kimi-k2.5:cloud vereisen geen lokale pull
  • gebruik voor handmatig wisselen openclaw models list en openclaw models set ollama/<model>
Beveiligingsopmerking: kleinere of sterk gekwantiseerde modellen zijn kwetsbaarder voor prompt injection. We raden grote modellen sterk aan voor elke bot die tools kan gebruiken. Als je toch kleine modellen wilt, schakel dan sandboxing en strikte allowlists voor tools in.Documentatie: Ollama, Lokale modellen, Modelproviders, Beveiliging, Sandboxing.
  • Deze deployments kunnen verschillen en in de loop van de tijd wijzigen; er is geen vaste provider-aanbeveling.
  • Controleer de huidige runtime-instelling op elke Gateway met openclaw models status.
  • Gebruik voor beveiligingsgevoelige agents of agents met tools het sterkste model van de nieuwste generatie dat beschikbaar is.
Gebruik de opdracht /model als zelfstandig bericht:
/model sonnet
/model opus
/model gpt
/model gpt-mini
/model gemini
/model gemini-flash
/model gemini-flash-lite
Dit zijn de ingebouwde aliassen. Aangepaste aliassen kunnen worden toegevoegd via agents.defaults.models.Je kunt beschikbare modellen tonen met /model, /model list of /model status./model (en /model list) toont een compacte, genummerde kiezer. Selecteer op nummer:
/model 3
Je kunt ook een specifiek auth-profiel voor de provider afdwingen (per sessie):
/model opus@anthropic:default
/model opus@anthropic:work
Tip: /model status toont welke agent actief is, welk auth-profiles.json-bestand wordt gebruikt en welk auth-profiel hierna wordt geprobeerd. Het toont ook het geconfigureerde provider-eindpunt (baseUrl) en de API-modus (api) wanneer beschikbaar.Hoe maak ik een profiel los dat ik met @profile heb vastgezet?Voer /model opnieuw uit zonder het achtervoegsel @profile:
/model anthropic/claude-opus-4-6
Als je wilt terugkeren naar de standaard, kies die dan uit /model (of stuur /model <default provider/model>). Gebruik /model status om te bevestigen welk auth-profiel actief is.
Ja. Stel er één in als standaard en wissel wanneer nodig:
  • Snel wisselen (per sessie): /model openai/gpt-5.5 voor huidige directe OpenAI API-sleuteltaken of /model openai-codex/gpt-5.5 voor GPT-5.5 Codex OAuth-taken.
  • Standaard: stel agents.defaults.model.primary in op openai/gpt-5.5 voor gebruik met API-sleutel of openai-codex/gpt-5.5 voor gebruik met GPT-5.5 Codex OAuth.
  • Sub-agents: routeer codeertaken naar sub-agents met een ander standaardmodel.
Zie Modellen en Slash-opdrachten.
Gebruik een sessieschakelaar of een configuratiestandaard:
  • Per sessie: stuur /fast on terwijl de sessie openai/gpt-5.5 of openai-codex/gpt-5.5 gebruikt.
  • Per model standaard: stel agents.defaults.models["openai/gpt-5.5"].params.fastMode of agents.defaults.models["openai-codex/gpt-5.5"].params.fastMode in op true.
Voorbeeld:
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": {
          params: {
            fastMode: true,
          },
        },
      },
    },
  },
}
Voor OpenAI wordt snelle modus gekoppeld aan service_tier = "priority" bij ondersteunde native Responses-aanvragen. Session /fast-overrides hebben voorrang op configuratiestandaarden.Zie Denken en snelle modus en OpenAI snelle modus.
Als agents.defaults.models is ingesteld, wordt dit de allowlist voor /model en eventuele sessie-overrides. Een model kiezen dat niet in die lijst staat, retourneert:
Model "provider/model" is not allowed. Use /model to list available models.
Die fout wordt geretourneerd in plaats van een normaal antwoord. Oplossing: voeg het model toe aan agents.defaults.models, verwijder de allowlist of kies een model uit /model list.
Dit betekent dat de provider niet is geconfigureerd (er is geen MiniMax-providerconfiguratie of auth- profiel gevonden), waardoor het model niet kan worden opgelost.Checklist voor oplossing:
  1. Upgrade naar een huidige OpenClaw-release (of voer uit vanaf source main) en start daarna de Gateway opnieuw.
  2. Zorg dat MiniMax is geconfigureerd (wizard of JSON), of dat MiniMax-auth bestaat in env/auth-profielen zodat de overeenkomende provider kan worden geïnjecteerd (MINIMAX_API_KEY voor minimax, MINIMAX_OAUTH_TOKEN of opgeslagen MiniMax OAuth voor minimax-portal).
  3. Gebruik de exacte model-id (hoofdlettergevoelig) voor je auth-pad: minimax/MiniMax-M2.7 of minimax/MiniMax-M2.7-highspeed voor installatie met API-sleutel, of minimax-portal/MiniMax-M2.7 / minimax-portal/MiniMax-M2.7-highspeed voor OAuth-installatie.
  4. Voer uit:
    openclaw models list
    
    en kies uit de lijst (of /model list in chat).
Zie MiniMax en Modellen.
Ja. Gebruik MiniMax als standaard en wissel modellen per sessie wanneer nodig. Fallbacks zijn voor fouten, niet voor “moeilijke taken”, dus gebruik /model of een aparte agent.Optie A: wisselen per sessie
{
  env: { MINIMAX_API_KEY: "sk-...", OPENAI_API_KEY: "sk-..." },
  agents: {
    defaults: {
      model: { primary: "minimax/MiniMax-M2.7" },
      models: {
        "minimax/MiniMax-M2.7": { alias: "minimax" },
        "openai/gpt-5.5": { alias: "gpt" },
      },
    },
  },
}
Daarna:
/model gpt
Optie B: aparte agents
  • Agent A standaard: MiniMax
  • Agent B standaard: OpenAI
  • Routeer op agent of gebruik /agent om te wisselen
Documentatie: Modellen, Multi-agent-routering, MiniMax, OpenAI.
Ja. OpenClaw levert enkele standaardverkortingen mee (alleen toegepast wanneer het model bestaat in agents.defaults.models):
  • opusanthropic/claude-opus-4-6
  • sonnetanthropic/claude-sonnet-4-6
  • gptopenai/gpt-5.5 voor installaties met API-sleutel, of openai-codex/gpt-5.5 wanneer geconfigureerd voor Codex OAuth
  • gpt-miniopenai/gpt-5.4-mini
  • gpt-nanoopenai/gpt-5.4-nano
  • geminigoogle/gemini-3.1-pro-preview
  • gemini-flashgoogle/gemini-3-flash-preview
  • gemini-flash-litegoogle/gemini-3.1-flash-lite-preview
Als je je eigen alias met dezelfde naam instelt, krijgt jouw waarde voorrang.
Aliassen komen uit agents.defaults.models.<modelId>.alias. Voorbeeld:
{
  agents: {
    defaults: {
      model: { primary: "anthropic/claude-opus-4-6" },
      models: {
        "anthropic/claude-opus-4-6": { alias: "opus" },
        "anthropic/claude-sonnet-4-6": { alias: "sonnet" },
        "anthropic/claude-haiku-4-5": { alias: "haiku" },
      },
    },
  },
}
Daarna wordt /model sonnet (of /<alias> wanneer ondersteund) opgelost naar die model-id.
OpenRouter (betalen per token; veel modellen):
{
  agents: {
    defaults: {
      model: { primary: "openrouter/anthropic/claude-sonnet-4-6" },
      models: { "openrouter/anthropic/claude-sonnet-4-6": {} },
    },
  },
  env: { OPENROUTER_API_KEY: "sk-or-..." },
}
Z.AI (GLM-modellen):
{
  agents: {
    defaults: {
      model: { primary: "zai/glm-5" },
      models: { "zai/glm-5": {} },
    },
  },
  env: { ZAI_API_KEY: "..." },
}
Als je verwijst naar een provider/model maar de vereiste providersleutel ontbreekt, krijg je een runtime-authenticatiefout (bijv. No API key found for provider "zai").Geen API-sleutel gevonden voor provider na het toevoegen van een nieuwe agentDit betekent meestal dat de nieuwe agent een lege auth-store heeft. Auth is per agent en wordt opgeslagen in:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json
Oplossingsopties:
  • Voer openclaw agents add <id> uit en configureer auth tijdens de wizard.
  • Of kopieer alleen draagbare statische api_key- / token-profielen uit de auth-store van de hoofdagent naar de auth-store van de nieuwe agent.
  • Voor OAuth-profielen: meld je aan vanuit de nieuwe agent wanneer die een eigen account nodig heeft; anders kan OpenClaw doorlezen naar de standaard-/hoofdagent zonder refresh tokens te klonen.
Gebruik agentDir niet opnieuw voor meerdere agents; dat veroorzaakt auth-/sessieconflicten.

Model-failover en “Alle modellen mislukt”

Failover gebeurt in twee fasen:
  1. Rotatie van auth-profielen binnen dezelfde provider.
  2. Model-fallback naar het volgende model in agents.defaults.model.fallbacks.
Cooldowns gelden voor falende profielen (exponentiële backoff), zodat OpenClaw kan blijven reageren, zelfs wanneer een provider rate-limited is of tijdelijk faalt.De rate-limit-bucket bevat meer dan alleen 429-reacties. OpenClaw behandelt ook berichten zoals Too many concurrent requests, ThrottlingException, concurrency limit reached, workers_ai ... quota limit exceeded, resource exhausted en periodieke gebruiksvensterlimieten (weekly/monthly limit reached) als rate limits waarvoor failover passend is.Sommige reacties die op billing lijken, zijn geen 402, en sommige HTTP 402- reacties blijven ook in die tijdelijke bucket. Als een provider expliciete billing-tekst retourneert bij 401 of 403, kan OpenClaw dat nog steeds in de billing-lane houden, maar providerspecifieke tekstmatchers blijven beperkt tot de provider die ze bezit (bijvoorbeeld OpenRouter Key limit exceeded). Als een 402- bericht er in plaats daarvan uitziet als een opnieuw te proberen gebruiksvenster- of bestedingslimiet voor organisatie/werkruimte (daily limit reached, resets tomorrow, organization spending limit exceeded), behandelt OpenClaw dit als rate_limit, niet als een langdurige billing-uitschakeling.Context-overflowfouten zijn anders: signatures zoals request_too_large, input exceeds the maximum number of tokens, input token count exceeds the maximum number of input tokens, input is too long for the model of ollama error: context length exceeded blijven op het pad voor compaction/opnieuw proberen in plaats van model- fallback te activeren.Generieke serverfouttekst is bewust smaller dan “alles met unknown/error erin”. OpenClaw behandelt providerspecifieke tijdelijke vormen zoals Anthropic kaal An unknown error occurred, OpenRouter kaal Provider returned error, stop-reason-fouten zoals Unhandled stop reason: error, JSON-api_error-payloads met tijdelijke servertekst (internal server error, unknown error, 520, upstream error, backend error) en provider-bezet-fouten zoals ModelNotReadyException als failoverwaardige signalen voor timeout/overbelasting wanneer de providercontext overeenkomt. Generieke interne fallbacktekst zoals LLM request failed with an unknown error. blijft conservatief en activeert op zichzelf geen model-fallback.
Het betekent dat het systeem het auth-profiel-ID anthropic:default probeerde te gebruiken, maar daarvoor geen credentials kon vinden in de verwachte auth-store.Checklist voor oplossing:
  • Controleer waar auth-profielen staan (nieuwe versus legacy-paden)
    • Huidig: ~/.openclaw/agents/<agentId>/agent/auth-profiles.json
    • Legacy: ~/.openclaw/agent/* (gemigreerd door openclaw doctor)
  • Controleer of je env var door de Gateway is geladen
    • Als je ANTHROPIC_API_KEY in je shell hebt ingesteld maar de Gateway via systemd/launchd draait, erft die variabele mogelijk niet mee. Zet deze in ~/.openclaw/.env of schakel env.shellEnv in.
  • Zorg dat je de juiste agent bewerkt
    • Multi-agent-setups betekenen dat er meerdere auth-profiles.json-bestanden kunnen zijn.
  • Controleer model-/auth-status globaal
    • Gebruik openclaw models status om geconfigureerde modellen te zien en of providers geauthenticeerd zijn.
Checklist voor oplossing voor “No credentials found for profile anthropic”Dit betekent dat de run is vastgezet op een Anthropic-auth-profiel, maar de Gateway dit niet kan vinden in zijn auth-store.
  • Gebruik Claude CLI
    • Voer openclaw models auth login --provider anthropic --method cli --set-default uit op de gateway-host.
  • Als je in plaats daarvan een API-sleutel wilt gebruiken
    • Zet ANTHROPIC_API_KEY in ~/.openclaw/.env op de gateway-host.
    • Wis elke vastgezette volgorde die een ontbrekend profiel forceert:
      openclaw models auth order clear --provider anthropic
      
  • Controleer of je opdrachten uitvoert op de gateway-host
    • In externe modus staan auth-profielen op de gateway-machine, niet op je laptop.
Als je modelconfiguratie Google Gemini als fallback bevat (of je bent overgestapt op een Gemini-afkorting), probeert OpenClaw dit tijdens model-fallback. Als je geen Google-credentials hebt geconfigureerd, zie je No API key found for provider "google".Oplossing: geef Google-auth op, of verwijder/vermijd Google-modellen in agents.defaults.model.fallbacks / aliassen zodat fallback daar niet naartoe routeert.LLM-verzoek geweigerd: thinking signature vereist (Google Antigravity)Oorzaak: de sessiegeschiedenis bevat thinking-blokken zonder signatures (vaak door een afgebroken/gedeeltelijke stream). Google Antigravity vereist signatures voor thinking-blokken.Oplossing: OpenClaw verwijdert nu niet-ondertekende thinking-blokken voor Google Antigravity Claude. Als het nog steeds verschijnt, start dan een nieuwe sessie of stel /thinking off in voor die agent.

Auth-profielen: wat ze zijn en hoe je ze beheert

Gerelateerd: /concepts/oauth (OAuth-flows, tokenopslag, multi-accountpatronen)
Een auth-profiel is een benoemd credential-record (OAuth of API-sleutel) dat aan een provider is gekoppeld. Profielen staan in:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json
OpenClaw gebruikt ID’s met providerprefix, zoals:
  • anthropic:default (gebruikelijk wanneer er geen e-mailidentiteit bestaat)
  • anthropic:<email> voor OAuth-identiteiten
  • aangepaste ID’s die je kiest (bijv. anthropic:work)
Ja. Config ondersteunt optionele metadata voor profielen en een volgorde per provider (auth.order.<provider>). Dit slaat geen geheimen op; het koppelt ID’s aan provider/modus en stelt de rotatievolgorde in.OpenClaw kan een profiel tijdelijk overslaan als het in een korte cooldown zit (rate limits/timeouts/auth-fouten) of in een langere uitgeschakelde status (billing/onvoldoende credits). Voer openclaw models status --json uit en controleer auth.unusableProfiles om dit te inspecteren. Afstemming: auth.cooldowns.billingBackoffHours*.Rate-limit-cooldowns kunnen modelspecifiek zijn. Een profiel dat afkoelt voor één model kan nog steeds bruikbaar zijn voor een verwant model bij dezelfde provider, terwijl billing-/uitgeschakelde vensters nog steeds het hele profiel blokkeren.Je kunt ook een per-agent volgorde-override instellen (opgeslagen in auth-state.json van die agent) via de CLI:
# Defaults to the configured default agent (omit --agent)
openclaw models auth order get --provider anthropic

# Lock rotation to a single profile (only try this one)
openclaw models auth order set --provider anthropic anthropic:default

# Or set an explicit order (fallback within provider)
openclaw models auth order set --provider anthropic anthropic:work anthropic:default

# Clear override (fall back to config auth.order / round-robin)
openclaw models auth order clear --provider anthropic
Om een specifieke agent te targeten:
openclaw models auth order set --provider anthropic --agent main anthropic:default
Gebruik dit om te verifiëren wat daadwerkelijk wordt geprobeerd:
openclaw models status --probe
Als een opgeslagen profiel uit de expliciete volgorde is weggelaten, rapporteert probe excluded_by_auth_order voor dat profiel in plaats van het stilzwijgend te proberen.
OpenClaw ondersteunt beide:
  • OAuth gebruikt vaak abonnements­toegang (waar van toepassing).
  • API-sleutels gebruiken billing per token.
De wizard ondersteunt expliciet Anthropic Claude CLI, OpenAI Codex OAuth en API-sleutels.

Gerelateerd