Model- en auth-profiel-Q&A. Voor installatie, sessies, Gateway, kanalen en probleemoplossing, zie de hoofd-FAQ.Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
Modellen: standaardinstellingen, selectie, aliassen, wisselen
Wat is het "standaardmodel"?
Wat is het "standaardmodel"?
provider/model (voorbeeld: openai/gpt-5.5 of openai-codex/gpt-5.5). Als je de provider weglaat, probeert OpenClaw eerst een alias, daarna een unieke overeenkomst met een geconfigureerde provider voor die exacte model-id, en valt pas daarna terug op de geconfigureerde standaardprovider als verouderd compatibiliteitspad. Als die provider het geconfigureerde standaardmodel niet meer aanbiedt, valt OpenClaw terug op de eerste geconfigureerde provider/model in plaats van een verouderde standaard van een verwijderde provider te tonen. Je moet provider/model nog steeds expliciet instellen.Welk model raden jullie aan?
Welk model raden jullie aan?
Hoe wissel ik van model zonder mijn configuratie te wissen?
Hoe wissel ik van model zonder mijn configuratie te wissen?
/modelin chat (snel, per sessie)openclaw models set ...(werkt alleen modelconfiguratie bij)openclaw configure --section model(interactief)- bewerk
agents.defaults.modelin~/.openclaw/openclaw.json
config.apply met een gedeeltelijk object, tenzij je de hele configuratie wilt vervangen.
Inspecteer bij RPC-bewerkingen eerst met config.schema.lookup en gebruik bij voorkeur config.patch. De lookup-payload geeft je het genormaliseerde pad, oppervlakkige schemadocumentatie/-beperkingen en samenvattingen van directe onderliggende items.
voor gedeeltelijke updates.
Als je de configuratie hebt overschreven, herstel dan vanuit een back-up of voer openclaw doctor opnieuw uit om te repareren.Documentatie: Modellen, Configureren, Configuratie, Doctor.Kan ik zelf gehoste modellen gebruiken (llama.cpp, vLLM, Ollama)?
Kan ik zelf gehoste modellen gebruiken (llama.cpp, vLLM, Ollama)?
- Installeer Ollama vanaf
https://ollama.com/download - Haal een lokaal model op, zoals
ollama pull gemma4 - Als je ook cloudmodellen wilt, voer dan
ollama signinuit - Voer
openclaw onboarduit en kiesOllama - Kies
LocalofCloud + Local
Cloud + Localgeeft je cloudmodellen plus je lokale Ollama-modellen- cloudmodellen zoals
kimi-k2.5:cloudvereisen geen lokale pull - gebruik voor handmatig wisselen
openclaw models listenopenclaw models set ollama/<model>
Welke modellen gebruiken OpenClaw, Flawd en Krill?
Welke modellen gebruiken OpenClaw, Flawd en Krill?
- Deze deployments kunnen verschillen en in de loop van de tijd wijzigen; er is geen vaste provider-aanbeveling.
- Controleer de huidige runtime-instelling op elke Gateway met
openclaw models status. - Gebruik voor beveiligingsgevoelige agents of agents met tools het sterkste model van de nieuwste generatie dat beschikbaar is.
Hoe wissel ik direct van model (zonder opnieuw te starten)?
Hoe wissel ik direct van model (zonder opnieuw te starten)?
/model als zelfstandig bericht:agents.defaults.models.Je kunt beschikbare modellen tonen met /model, /model list of /model status./model (en /model list) toont een compacte, genummerde kiezer. Selecteer op nummer:/model status toont welke agent actief is, welk auth-profiles.json-bestand wordt gebruikt en welk auth-profiel hierna wordt geprobeerd.
Het toont ook het geconfigureerde provider-eindpunt (baseUrl) en de API-modus (api) wanneer beschikbaar.Hoe maak ik een profiel los dat ik met @profile heb vastgezet?Voer /model opnieuw uit zonder het achtervoegsel @profile:/model (of stuur /model <default provider/model>).
Gebruik /model status om te bevestigen welk auth-profiel actief is.Kan ik GPT 5.5 gebruiken voor dagelijkse taken en Codex 5.5 voor coderen?
Kan ik GPT 5.5 gebruiken voor dagelijkse taken en Codex 5.5 voor coderen?
- Snel wisselen (per sessie):
/model openai/gpt-5.5voor huidige directe OpenAI API-sleuteltaken of/model openai-codex/gpt-5.5voor GPT-5.5 Codex OAuth-taken. - Standaard: stel
agents.defaults.model.primaryin opopenai/gpt-5.5voor gebruik met API-sleutel ofopenai-codex/gpt-5.5voor gebruik met GPT-5.5 Codex OAuth. - Sub-agents: routeer codeertaken naar sub-agents met een ander standaardmodel.
Hoe configureer ik snelle modus voor GPT 5.5?
Hoe configureer ik snelle modus voor GPT 5.5?
- Per sessie: stuur
/fast onterwijl de sessieopenai/gpt-5.5ofopenai-codex/gpt-5.5gebruikt. - Per model standaard: stel
agents.defaults.models["openai/gpt-5.5"].params.fastModeofagents.defaults.models["openai-codex/gpt-5.5"].params.fastModein optrue.
service_tier = "priority" bij ondersteunde native Responses-aanvragen. Session /fast-overrides hebben voorrang op configuratiestandaarden.Zie Denken en snelle modus en OpenAI snelle modus.Waarom zie ik "Model ... is not allowed" en daarna geen antwoord?
Waarom zie ik "Model ... is not allowed" en daarna geen antwoord?
agents.defaults.models is ingesteld, wordt dit de allowlist voor /model en eventuele
sessie-overrides. Een model kiezen dat niet in die lijst staat, retourneert:agents.defaults.models, verwijder de allowlist of kies een model uit /model list.Waarom zie ik "Unknown model: minimax/MiniMax-M2.7"?
Waarom zie ik "Unknown model: minimax/MiniMax-M2.7"?
-
Upgrade naar een huidige OpenClaw-release (of voer uit vanaf source
main) en start daarna de Gateway opnieuw. -
Zorg dat MiniMax is geconfigureerd (wizard of JSON), of dat MiniMax-auth
bestaat in env/auth-profielen zodat de overeenkomende provider kan worden geïnjecteerd
(
MINIMAX_API_KEYvoorminimax,MINIMAX_OAUTH_TOKENof opgeslagen MiniMax OAuth voorminimax-portal). -
Gebruik de exacte model-id (hoofdlettergevoelig) voor je auth-pad:
minimax/MiniMax-M2.7ofminimax/MiniMax-M2.7-highspeedvoor installatie met API-sleutel, ofminimax-portal/MiniMax-M2.7/minimax-portal/MiniMax-M2.7-highspeedvoor OAuth-installatie. -
Voer uit:
en kies uit de lijst (of
/model listin chat).
Kan ik MiniMax als mijn standaard gebruiken en OpenAI voor complexe taken?
Kan ik MiniMax als mijn standaard gebruiken en OpenAI voor complexe taken?
/model of een aparte agent.Optie A: wisselen per sessie- Agent A standaard: MiniMax
- Agent B standaard: OpenAI
- Routeer op agent of gebruik
/agentom te wisselen
Zijn opus / sonnet / gpt ingebouwde snelkoppelingen?
Zijn opus / sonnet / gpt ingebouwde snelkoppelingen?
agents.defaults.models):opus→anthropic/claude-opus-4-6sonnet→anthropic/claude-sonnet-4-6gpt→openai/gpt-5.5voor installaties met API-sleutel, ofopenai-codex/gpt-5.5wanneer geconfigureerd voor Codex OAuthgpt-mini→openai/gpt-5.4-minigpt-nano→openai/gpt-5.4-nanogemini→google/gemini-3.1-pro-previewgemini-flash→google/gemini-3-flash-previewgemini-flash-lite→google/gemini-3.1-flash-lite-preview
Hoe definieer/overschrijf ik modelsnelkoppelingen (aliassen)?
Hoe definieer/overschrijf ik modelsnelkoppelingen (aliassen)?
agents.defaults.models.<modelId>.alias. Voorbeeld:/model sonnet (of /<alias> wanneer ondersteund) opgelost naar die model-id.Hoe voeg ik modellen toe van andere providers zoals OpenRouter of Z.AI?
Hoe voeg ik modellen toe van andere providers zoals OpenRouter of Z.AI?
No API key found for provider "zai").Geen API-sleutel gevonden voor provider na het toevoegen van een nieuwe agentDit betekent meestal dat de nieuwe agent een lege auth-store heeft. Auth is per agent en
wordt opgeslagen in:- Voer
openclaw agents add <id>uit en configureer auth tijdens de wizard. - Of kopieer alleen draagbare statische
api_key- /token-profielen uit de auth-store van de hoofdagent naar de auth-store van de nieuwe agent. - Voor OAuth-profielen: meld je aan vanuit de nieuwe agent wanneer die een eigen account nodig heeft; anders kan OpenClaw doorlezen naar de standaard-/hoofdagent zonder refresh tokens te klonen.
agentDir niet opnieuw voor meerdere agents; dat veroorzaakt auth-/sessieconflicten.Model-failover en “Alle modellen mislukt”
Hoe werkt failover?
Hoe werkt failover?
- Rotatie van auth-profielen binnen dezelfde provider.
- Model-fallback naar het volgende model in
agents.defaults.model.fallbacks.
429-reacties. OpenClaw
behandelt ook berichten zoals Too many concurrent requests,
ThrottlingException, concurrency limit reached,
workers_ai ... quota limit exceeded, resource exhausted en periodieke
gebruiksvensterlimieten (weekly/monthly limit reached) als rate limits
waarvoor failover passend is.Sommige reacties die op billing lijken, zijn geen 402, en sommige HTTP 402-
reacties blijven ook in die tijdelijke bucket. Als een provider expliciete
billing-tekst retourneert bij 401 of 403, kan OpenClaw dat nog steeds in
de billing-lane houden, maar providerspecifieke tekstmatchers blijven beperkt tot de
provider die ze bezit (bijvoorbeeld OpenRouter Key limit exceeded). Als een 402-
bericht er in plaats daarvan uitziet als een opnieuw te proberen gebruiksvenster- of
bestedingslimiet voor organisatie/werkruimte (daily limit reached, resets tomorrow,
organization spending limit exceeded), behandelt OpenClaw dit als
rate_limit, niet als een langdurige billing-uitschakeling.Context-overflowfouten zijn anders: signatures zoals
request_too_large, input exceeds the maximum number of tokens,
input token count exceeds the maximum number of input tokens,
input is too long for the model of ollama error: context length exceeded blijven op het pad voor compaction/opnieuw proberen in plaats van model-
fallback te activeren.Generieke serverfouttekst is bewust smaller dan “alles met
unknown/error erin”. OpenClaw behandelt providerspecifieke tijdelijke vormen
zoals Anthropic kaal An unknown error occurred, OpenRouter kaal
Provider returned error, stop-reason-fouten zoals Unhandled stop reason: error, JSON-api_error-payloads met tijdelijke servertekst
(internal server error, unknown error, 520, upstream error, backend error) en provider-bezet-fouten zoals ModelNotReadyException als
failoverwaardige signalen voor timeout/overbelasting wanneer de providercontext
overeenkomt.
Generieke interne fallbacktekst zoals LLM request failed with an unknown error. blijft conservatief en activeert op zichzelf geen model-fallback.Wat betekent "No credentials found for profile anthropic:default"?
Wat betekent "No credentials found for profile anthropic:default"?
anthropic:default probeerde te gebruiken, maar daarvoor geen credentials kon vinden in de verwachte auth-store.Checklist voor oplossing:- Controleer waar auth-profielen staan (nieuwe versus legacy-paden)
- Huidig:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json - Legacy:
~/.openclaw/agent/*(gemigreerd dooropenclaw doctor)
- Huidig:
- Controleer of je env var door de Gateway is geladen
- Als je
ANTHROPIC_API_KEYin je shell hebt ingesteld maar de Gateway via systemd/launchd draait, erft die variabele mogelijk niet mee. Zet deze in~/.openclaw/.envof schakelenv.shellEnvin.
- Als je
- Zorg dat je de juiste agent bewerkt
- Multi-agent-setups betekenen dat er meerdere
auth-profiles.json-bestanden kunnen zijn.
- Multi-agent-setups betekenen dat er meerdere
- Controleer model-/auth-status globaal
- Gebruik
openclaw models statusom geconfigureerde modellen te zien en of providers geauthenticeerd zijn.
- Gebruik
-
Gebruik Claude CLI
- Voer
openclaw models auth login --provider anthropic --method cli --set-defaultuit op de gateway-host.
- Voer
-
Als je in plaats daarvan een API-sleutel wilt gebruiken
-
Zet
ANTHROPIC_API_KEYin~/.openclaw/.envop de gateway-host. -
Wis elke vastgezette volgorde die een ontbrekend profiel forceert:
-
Zet
-
Controleer of je opdrachten uitvoert op de gateway-host
- In externe modus staan auth-profielen op de gateway-machine, niet op je laptop.
Waarom probeerde het ook Google Gemini en mislukte dat?
Waarom probeerde het ook Google Gemini en mislukte dat?
No API key found for provider "google".Oplossing: geef Google-auth op, of verwijder/vermijd Google-modellen in agents.defaults.model.fallbacks / aliassen zodat fallback daar niet naartoe routeert.LLM-verzoek geweigerd: thinking signature vereist (Google Antigravity)Oorzaak: de sessiegeschiedenis bevat thinking-blokken zonder signatures (vaak door
een afgebroken/gedeeltelijke stream). Google Antigravity vereist signatures voor thinking-blokken.Oplossing: OpenClaw verwijdert nu niet-ondertekende thinking-blokken voor Google Antigravity Claude. Als het nog steeds verschijnt, start dan een nieuwe sessie of stel /thinking off in voor die agent.Auth-profielen: wat ze zijn en hoe je ze beheert
Gerelateerd: /concepts/oauth (OAuth-flows, tokenopslag, multi-accountpatronen)Wat is een auth-profiel?
Wat is een auth-profiel?
Wat zijn typische profiel-ID's?
Wat zijn typische profiel-ID's?
anthropic:default(gebruikelijk wanneer er geen e-mailidentiteit bestaat)anthropic:<email>voor OAuth-identiteiten- aangepaste ID’s die je kiest (bijv.
anthropic:work)
Kan ik bepalen welk auth-profiel als eerste wordt geprobeerd?
Kan ik bepalen welk auth-profiel als eerste wordt geprobeerd?
auth.order.<provider>). Dit slaat geen geheimen op; het koppelt ID’s aan provider/modus en stelt de rotatievolgorde in.OpenClaw kan een profiel tijdelijk overslaan als het in een korte cooldown zit (rate limits/timeouts/auth-fouten) of in een langere uitgeschakelde status (billing/onvoldoende credits). Voer openclaw models status --json uit en controleer auth.unusableProfiles om dit te inspecteren. Afstemming: auth.cooldowns.billingBackoffHours*.Rate-limit-cooldowns kunnen modelspecifiek zijn. Een profiel dat afkoelt
voor één model kan nog steeds bruikbaar zijn voor een verwant model bij dezelfde provider,
terwijl billing-/uitgeschakelde vensters nog steeds het hele profiel blokkeren.Je kunt ook een per-agent volgorde-override instellen (opgeslagen in auth-state.json van die agent) via de CLI:excluded_by_auth_order voor dat profiel in plaats van het stilzwijgend te proberen.OAuth versus API-sleutel - wat is het verschil?
OAuth versus API-sleutel - wat is het verschil?
- OAuth gebruikt vaak abonnementstoegang (waar van toepassing).
- API-sleutels gebruiken billing per token.
Gerelateerd
- FAQ — de hoofd-FAQ
- FAQ — quickstart en eerste configuratie
- Modelselectie
- Model-failover