Referentie voor LLM-/modelproviders (niet chatkanalen zoals WhatsApp/Telegram). Zie Modellen voor regels voor modelselectie.Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
Snelle regels
Modelverwijzingen en CLI-helpers
Modelverwijzingen en CLI-helpers
- Modelverwijzingen gebruiken
provider/model(voorbeeld:opencode/claude-opus-4-6). agents.defaults.modelswerkt als een allowlist wanneer dit is ingesteld.- CLI-helpers:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. models.providers.*.contextWindow/contextTokens/maxTokensstellen standaardwaarden op providerniveau in;models.providers.*.models[].contextWindow/contextTokens/maxTokensoverschrijven die per model.- Fallbackregels, cooldown-probes en behoud van sessie-overschrijvingen: Model-failover.
Splitsing tussen OpenAI-provider en runtime
Splitsing tussen OpenAI-provider en runtime
OpenAI-familieroutes zijn prefixspecifiek:
openai/<model>gebruikt de directe OpenAI API-key-provider in PI.openai-codex/<model>gebruikt Codex OAuth in PI.openai/<model>plusagents.defaults.agentRuntime.id: "codex"gebruikt de native Codex app-server-harness.
openai-codex/<model> hoort bij de OpenAI Plugin, terwijl de Codex Plugin wordt ingeschakeld door agentRuntime.id: "codex" of legacy codex/<model>-verwijzingen.GPT-5.5 is beschikbaar via openai/gpt-5.5 voor direct API-key-verkeer, openai-codex/gpt-5.5 in PI voor Codex OAuth, en de native Codex app-server-harness wanneer agentRuntime.id: "codex" is ingesteld.CLI-runtimes
CLI-runtimes
CLI-runtimes gebruiken dezelfde splitsing: kies canonieke modelverwijzingen zoals
anthropic/claude-*, google/gemini-* of openai/gpt-*, en stel daarna agents.defaults.agentRuntime.id in op claude-cli, google-gemini-cli of codex-cli wanneer je een lokale CLI-backend wilt.Legacy claude-cli/*, google-gemini-cli/* en codex-cli/*-verwijzingen migreren terug naar canonieke providerverwijzingen, waarbij de runtime apart wordt vastgelegd.Providergedrag in eigendom van Plugins
De meeste providerspecifieke logica leeft in provider-Plugins (registerProvider(...)), terwijl OpenClaw de generieke inferentielus behoudt. Plugins beheren onboarding, modelcatalogi, mapping van auth-env-vars, normalisatie van transport/configuratie, opschoning van tool-schema’s, failoverclassificatie, OAuth-vernieuwing, gebruiksrapportage, denk-/redeneerprofielen en meer.
De volledige lijst met provider-SDK-hooks en voorbeelden van meegeleverde Plugins staat in Provider-Plugins. Een provider die een volledig aangepaste request-executor nodig heeft, is een afzonderlijk, dieper uitbreidingsoppervlak.
Runnergedrag in eigendom van de provider leeft op expliciete providerhooks zoals replaybeleid, normalisatie van tool-schema’s, stream-wrapping en transport-/requesthelpers. De legacy statische bag
ProviderPlugin.capabilities is alleen voor compatibiliteit en wordt niet langer gelezen door gedeelde runnerlogica.API-key-rotatie
Key-bronnen en prioriteit
Key-bronnen en prioriteit
Configureer meerdere keys via:
OPENCLAW_LIVE_<PROVIDER>_KEY(enkele live-overschrijving, hoogste prioriteit)<PROVIDER>_API_KEYS(lijst gescheiden door komma’s of puntkomma’s)<PROVIDER>_API_KEY(primaire key)<PROVIDER>_API_KEY_*(genummerde lijst, bijv.<PROVIDER>_API_KEY_1)
GOOGLE_API_KEY ook als fallback opgenomen. De selectievolgorde van keys behoudt de prioriteit en dedupliceert waarden.Wanneer rotatie in werking treedt
Wanneer rotatie in werking treedt
- Requests worden alleen opnieuw geprobeerd met de volgende key bij rate-limit-antwoorden (bijvoorbeeld
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededof periodieke meldingen over gebruikslimieten). - Fouten die geen rate-limit zijn falen onmiddellijk; er wordt geen key-rotatie geprobeerd.
- Wanneer alle kandidaatkeys falen, wordt de uiteindelijke fout teruggegeven van de laatste poging.
Ingebouwde providers (pi-ai-catalogus)
OpenClaw wordt geleverd met de pi‑ai-catalogus. Deze providers vereisen geenmodels.providers-configuratie; stel alleen auth in en kies een model.
OpenAI
- Provider:
openai - Authenticatie:
OPENAI_API_KEY - Optionele rotatie:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, plusOPENCLAW_LIVE_OPENAI_KEY(enkele override) - Voorbeeldmodellen:
openai/gpt-5.5,openai/gpt-5.4-mini - Controleer account-/modelbeschikbaarheid met
openclaw models list --provider openaials een specifieke installatie of API-sleutel zich anders gedraagt. - CLI:
openclaw onboard --auth-choice openai-api-key - Standaardtransport is
auto(eerst WebSocket, SSE als fallback) - Override per model via
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"of"auto") - OpenAI Responses WebSocket-warm-up staat standaard aan via
params.openaiWsWarmup(true/false) - OpenAI-prioriteitsverwerking kan worden ingeschakeld via
agents.defaults.models["openai/<model>"].params.serviceTier /fastenparams.fastModekoppelen directeopenai/*Responses-verzoeken aanservice_tier=priorityopapi.openai.com- Gebruik
params.serviceTierwanneer je een expliciete tier wilt in plaats van de gedeelde/fast-schakelaar - Verborgen OpenClaw-attributieheaders (
originator,version,User-Agent) gelden alleen voor native OpenAI-verkeer naarapi.openai.com, niet voor generieke OpenAI-compatibele proxies - Native OpenAI-routes behouden ook Responses
store, prompt-cachehints en OpenAI reasoning-compat payload-vormgeving; proxyroutes doen dat niet openai/gpt-5.3-codex-sparkwordt bewust onderdrukt in OpenClaw omdat live OpenAI API-verzoeken het weigeren en de huidige Codex-catalogus het niet beschikbaar maakt
Anthropic
- Provider:
anthropic - Authenticatie:
ANTHROPIC_API_KEY - Optionele rotatie:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, plusOPENCLAW_LIVE_ANTHROPIC_KEY(enkele override) - Voorbeeldmodel:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - Directe openbare Anthropic-verzoeken ondersteunen de gedeelde
/fast-schakelaar enparams.fastMode, inclusief verkeer met API-sleutel en OAuth-authenticatie dat naarapi.anthropic.comwordt verzonden; OpenClaw koppelt dat aan Anthropicservice_tier(autoversusstandard_only) - De aanbevolen Claude CLI-configuratie houdt de modelverwijzing canoniek en selecteert de CLI-backend afzonderlijk:
anthropic/claude-opus-4-7metagents.defaults.agentRuntime.id: "claude-cli". Verouderdeclaude-cli/claude-opus-4-7-verwijzingen blijven werken voor compatibiliteit.
Anthropic-medewerkers hebben ons verteld dat OpenClaw-achtig Claude CLI-gebruik weer is toegestaan, dus OpenClaw behandelt hergebruik van Claude CLI en gebruik van
claude -p als goedgekeurd voor deze integratie, tenzij Anthropic een nieuw beleid publiceert. Anthropic setup-token blijft beschikbaar als ondersteund OpenClaw-tokenpad, maar OpenClaw geeft nu de voorkeur aan hergebruik van Claude CLI en claude -p wanneer beschikbaar.OpenAI Codex OAuth
- Provider:
openai-codex - Authenticatie: OAuth (ChatGPT)
- PI-modelverwijzing:
openai-codex/gpt-5.5 - Native Codex app-server harness-verwijzing:
openai/gpt-5.5metagents.defaults.agentRuntime.id: "codex" - Native Codex app-server harness-documentatie: Codex harness
- Verouderde modelverwijzingen:
codex/gpt-* - Plugin-grens:
openai-codex/*laadt de OpenAI-Plugin; de native Codex app-server Plugin wordt alleen geselecteerd door de Codex harness-runtime of verouderdecodex/*-verwijzingen. - CLI:
openclaw onboard --auth-choice openai-codexofopenclaw models auth login --provider openai-codex - Standaardtransport is
auto(eerst WebSocket, SSE als fallback) - Override per PI-model via
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"of"auto") params.serviceTierwordt ook doorgestuurd bij native Codex Responses-verzoeken (chatgpt.com/backend-api)- Verborgen OpenClaw-attributieheaders (
originator,version,User-Agent) worden alleen toegevoegd aan native Codex-verkeer naarchatgpt.com/backend-api, niet aan generieke OpenAI-compatibele proxies - Deelt dezelfde
/fast-schakelaar enparams.fastMode-configuratie als directopenai/*; OpenClaw koppelt dat aanservice_tier=priority openai-codex/gpt-5.5gebruikt de native Codex-cataloguswaardecontextWindow = 400000en standaard runtimecontextTokens = 272000; override de runtimelimiet metmodels.providers.openai-codex.models[].contextTokens- Beleidsnotitie: OpenAI Codex OAuth wordt expliciet ondersteund voor externe tools/workflows zoals OpenClaw.
- Gebruik
openai-codex/gpt-5.5wanneer je de Codex OAuth-/abonnementsroute wilt; gebruikopenai/gpt-5.5wanneer je API-sleutelconfiguratie en lokale catalogus de openbare API-route beschikbaar maken.
Andere gehoste opties in abonnementsstijl
GLM-modellen
Z.AI Coding Plan of algemene API-eindpunten.
MiniMax
MiniMax Coding Plan OAuth of toegang via API-sleutel.
Qwen Cloud
Qwen Cloud-providersurface plus Alibaba DashScope en endpointmapping voor Coding Plan.
OpenCode
- Authenticatie:
OPENCODE_API_KEY(ofOPENCODE_ZEN_API_KEY) - Zen-runtimeprovider:
opencode - Go-runtimeprovider:
opencode-go - Voorbeeldmodellen:
opencode/claude-opus-4-6,opencode-go/kimi-k2.6 - CLI:
openclaw onboard --auth-choice opencode-zenofopenclaw onboard --auth-choice opencode-go
Google Gemini (API-sleutel)
- Provider:
google - Authenticatie:
GEMINI_API_KEY - Optionele rotatie:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2,GOOGLE_API_KEYfallback enOPENCLAW_LIVE_GEMINI_KEY(enkele override) - Voorbeeldmodellen:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Compatibiliteit: verouderde OpenClaw-configuratie met
google/gemini-3.1-flash-previewwordt genormaliseerd naargoogle/gemini-3-flash-preview - Alias:
google/gemini-3.1-prowordt geaccepteerd en genormaliseerd naar de live Gemini API-id van Google,google/gemini-3.1-pro-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - Denken:
/think adaptivegebruikt dynamisch denken van Google. Gemini 3/3.1 laten een vastethinkingLevelweg; Gemini 2.5 verstuurtthinkingBudget: -1. - Directe Gemini-runs accepteren ook
agents.defaults.models["google/<model>"].params.cachedContent(of verouderdcached_content) om een provider-nativecachedContents/...-handle door te sturen; Gemini-cachehits verschijnen als OpenClawcacheRead
Google Vertex en Gemini CLI
- Providers:
google-vertex,google-gemini-cli - Authenticatie: Vertex gebruikt gcloud ADC; Gemini CLI gebruikt zijn OAuth-flow
google-Plugin.
Inloggen
google-gemini-cli/gemini-3-flash-preview. Je plakt geen client-ID of geheim in openclaw.json. De CLI-loginflow bewaart tokens in auth-profielen op de Gateway-host.response; gebruik valt terug op stats, waarbij stats.cached wordt genormaliseerd naar OpenClaw cacheRead.
Z.AI (GLM)
- Provider:
zai - Auth:
ZAI_API_KEY - Voorbeeldmodel:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- Aliassen:
z.ai/*enz-ai/*worden genormaliseerd naarzai/* zai-api-keydetecteert automatisch het overeenkomende Z.AI-eindpunt;zai-coding-global,zai-coding-cn,zai-globalenzai-cnforceren een specifiek oppervlak
- Aliassen:
Vercel AI Gateway
- Provider:
vercel-ai-gateway - Auth:
AI_GATEWAY_API_KEY - Voorbeeldmodellen:
vercel-ai-gateway/anthropic/claude-opus-4.6,vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Provider:
kilocode - Auth:
KILOCODE_API_KEY - Voorbeeldmodel:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - Basis-URL:
https://api.kilo.ai/api/gateway/ - De statische fallback-catalogus levert
kilocode/kilo/automee; live-detectie viahttps://api.kilo.ai/api/gateway/modelskan de runtime-catalogus verder uitbreiden. - Exacte upstream-routering achter
kilocode/kilo/autois eigendom van Kilo Gateway, niet hardcoded in OpenClaw.
Andere gebundelde provider-plugins
| Provider | ID | Auth-env | Voorbeeldmodel |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan | BYTEPLUS_API_KEY | byteplus-plan/ark-code-latest |
| Cerebras | cerebras | CEREBRAS_API_KEY | cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway | CLOUDFLARE_AI_GATEWAY_API_KEY | — |
| DeepInfra | deepinfra | DEEPINFRA_API_KEY | deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek | DEEPSEEK_API_KEY | deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot | COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN | — |
| Groq | groq | GROQ_API_KEY | — |
| Hugging Face Inference | huggingface | HUGGINGFACE_HUB_TOKEN of HF_TOKEN | huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode | KILOCODE_API_KEY | kilocode/kilo/auto |
| Kimi Coding | kimi | KIMI_API_KEY of KIMICODE_API_KEY | kimi/kimi-code |
| MiniMax | minimax / minimax-portal | MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN | minimax/MiniMax-M2.7 |
| Mistral | mistral | MISTRAL_API_KEY | mistral/mistral-large-latest |
| Moonshot | moonshot | MOONSHOT_API_KEY | moonshot/kimi-k2.6 |
| NVIDIA | nvidia | NVIDIA_API_KEY | nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter | OPENROUTER_API_KEY | openrouter/auto |
| Qianfan | qianfan | QIANFAN_API_KEY | qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen | QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY | qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan | STEPFUN_API_KEY | stepfun/step-3.5-flash |
| Together | together | TOGETHER_API_KEY | together/moonshotai/Kimi-K2.5 |
| Venice | venice | VENICE_API_KEY | — |
| Vercel AI Gateway | vercel-ai-gateway | AI_GATEWAY_API_KEY | vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan | VOLCANO_ENGINE_API_KEY | volcengine-plan/ark-code-latest |
| xAI | xai | XAI_API_KEY | xai/grok-4 |
| Xiaomi | xiaomi | XIAOMI_API_KEY | xiaomi/mimo-v2-flash |
Nuttige eigenaardigheden
OpenRouter
OpenRouter
Past zijn app-attributieheaders en Anthropic
cache_control-markeringen alleen toe op geverifieerde openrouter.ai-routes. DeepSeek-, Moonshot- en ZAI-refs komen in aanmerking voor cache-TTL voor door OpenRouter beheerde promptcaching, maar ontvangen geen Anthropic-cachemarkeringen. Als proxy-achtige OpenAI-compatibele route slaat het native-OpenAI-only shaping over (serviceTier, Responses store, prompt-cache-hints, OpenAI reasoning-compat). Gemini-backed refs behouden alleen proxy-Gemini thought-signature-opschoning.Kilo Gateway
Kilo Gateway
Gemini-backed refs volgen hetzelfde proxy-Gemini-opschoningspad;
kilocode/kilo/auto en andere proxy-reasoning-niet-ondersteunde refs slaan proxy-reasoning-injectie over.MiniMax
MiniMax
API-key-onboarding schrijft expliciete text-only M2.7-chatmodeldefinities; image understanding blijft op de plugin-eigen
MiniMax-VL-01-mediaprovider.NVIDIA
NVIDIA
Model-ID’s gebruiken een
nvidia/<vendor>/<model>-namespace (bijvoorbeeld nvidia/nvidia/nemotron-... naast nvidia/moonshotai/kimi-k2.5); pickers behouden de letterlijke <provider>/<model-id>-samenstelling, terwijl de canonieke sleutel die naar de API wordt gestuurd single-prefixed blijft.xAI
xAI
Gebruikt het xAI Responses-pad.
/fast of params.fastMode: true herschrijft grok-3, grok-3-mini, grok-4 en grok-4-0709 naar hun *-fast-varianten. tool_stream staat standaard aan; schakel uit via agents.defaults.models["xai/<model>"].params.tool_stream=false.Cerebras
Cerebras
Wordt geleverd als de gebundelde
cerebras-provider-plugin. GLM gebruikt zai-glm-4.7; de OpenAI-compatibele basis-URL is https://api.cerebras.ai/v1.Providers via models.providers (aangepaste/basis-URL)
Gebruik models.providers (of models.json) om aangepaste providers of OpenAI/Anthropic-compatibele proxies toe te voegen.
Veel van de onderstaande gebundelde provider-plugins publiceren al een standaardcatalogus. Gebruik expliciete models.providers.<id>-vermeldingen alleen wanneer je de standaardbasis-URL, headers of modellenlijst wilt overschrijven.
Gateway-modelcapaciteitscontroles lezen ook expliciete metadata uit models.providers.<id>.models[]. Als een aangepast of proxymodel afbeeldingen accepteert, stel dan input: ["text", "image"] in op dat model, zodat WebChat- en node-origin-bijlagepaden afbeeldingen doorgeven als native modelinvoer in plaats van text-only media refs.
Moonshot AI (Kimi)
Moonshot wordt geleverd als een gebundelde provider-plugin. Gebruik standaard de ingebouwde provider en voeg alleen een explicietemodels.providers.moonshot-vermelding toe wanneer je de basis-URL of modelmetadata moet overschrijven:
- Provider:
moonshot - Auth:
MOONSHOT_API_KEY - Voorbeeldmodel:
moonshot/kimi-k2.6 - CLI:
openclaw onboard --auth-choice moonshot-api-keyofopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi-coderen
Kimi Coding gebruikt Moonshot AI’s Anthropic-compatibele eindpunt:- Provider:
kimi - Authenticatie:
KIMI_API_KEY - Voorbeeldmodel:
kimi/kimi-code
kimi/k2p5 blijft geaccepteerd als compatibiliteitsmodel-id.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) biedt toegang tot Doubao en andere modellen in China.- Provider:
volcengine(coderen:volcengine-plan) - Authenticatie:
VOLCANO_ENGINE_API_KEY - Voorbeeldmodel:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/*-catalogus wordt tegelijkertijd geregistreerd.
In modelkiezers voor onboarding/configuratie geeft de Volcengine-authenticatiekeuze de voorkeur aan zowel volcengine/*- als volcengine-plan/*-rijen. Als die modellen nog niet zijn geladen, valt OpenClaw terug op de ongefilterde catalogus in plaats van een lege provider-gescopeerde kiezer te tonen.
- Standaardmodellen
- Coderingsmodellen (volcengine-plan)
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
BytePlus (Internationaal)
BytePlus ARK biedt internationale gebruikers toegang tot dezelfde modellen als Volcano Engine.- Provider:
byteplus(coderen:byteplus-plan) - Authenticatie:
BYTEPLUS_API_KEY - Voorbeeldmodel:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/*-catalogus wordt tegelijkertijd geregistreerd.
In onboarding-/configuratiemodelkiezers geeft de BytePlus-authenticatiekeuze de voorkeur aan zowel byteplus/*- als byteplus-plan/*-rijen. Als die modellen nog niet zijn geladen, valt OpenClaw terug op de ongefilterde catalogus in plaats van een lege provider-gebonden kiezer te tonen.
- Standaardmodellen
- Codeermodellen (byteplus-plan)
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Synthetic
Synthetic biedt Anthropic-compatibele modellen achter de providersynthetic:
- Provider:
synthetic - Auth:
SYNTHETIC_API_KEY - Voorbeeldmodel:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax wordt geconfigureerd viamodels.providers omdat het aangepaste endpoints gebruikt:
- MiniMax OAuth (wereldwijd):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - MiniMax API-sleutel (wereldwijd):
--auth-choice minimax-global-api - MiniMax API-sleutel (CN):
--auth-choice minimax-cn-api - Auth:
MINIMAX_API_KEYvoorminimax;MINIMAX_OAUTH_TOKENofMINIMAX_API_KEYvoorminimax-portal
Op het Anthropic-compatibele streamingpad van MiniMax schakelt OpenClaw denken standaard uit, tenzij je het expliciet instelt, en
/fast on herschrijft MiniMax-M2.7 naar MiniMax-M2.7-highspeed.- Standaardinstellingen voor tekst/chat blijven op
minimax/MiniMax-M2.7 - Afbeeldingsgeneratie is
minimax/image-01ofminimax-portal/image-01 - Afbeeldingsbegrip is door de Plugin beheerde
MiniMax-VL-01op beide MiniMax-authenticatiepaden - Webzoekopdrachten blijven op provider-id
minimax
LM Studio
LM Studio wordt geleverd als een gebundelde provider-Plugin die de native API gebruikt:- Provider:
lmstudio - Auth:
LM_API_TOKEN - Standaard basis-URL voor inferentie:
http://localhost:1234/v1
http://localhost:1234/api/v1/models worden geretourneerd):
/api/v1/models en /api/v1/models/load van LM Studio voor detectie en automatisch laden, met standaard /v1/chat/completions voor inferentie. Zie /providers/lmstudio voor installatie en probleemoplossing.
Ollama
Ollama wordt geleverd als een gebundelde provider-Plugin en gebruikt de native API van Ollama:- Provider:
ollama - Auth: niet vereist (lokale server)
- Voorbeeldmodel:
ollama/llama3.3 - Installatie: https://ollama.com/download
http://127.0.0.1:11434 wanneer je je hiervoor aanmeldt met OLLAMA_API_KEY, en de gebundelde provider-Plugin voegt Ollama rechtstreeks toe aan openclaw onboard en de modelkiezer. Zie /providers/ollama voor onboarding, cloud-/lokale modus en aangepaste configuratie.
vLLM
vLLM wordt geleverd als een gebundelde provider-Plugin voor lokale/zelfgehoste OpenAI-compatibele servers:- Provider:
vllm - Auth: optioneel (afhankelijk van je server)
- Standaard basis-URL:
http://127.0.0.1:8000/v1
/v1/models worden geretourneerd):
SGLang
SGLang wordt geleverd als een gebundelde provider-Plugin voor snelle zelfgehoste OpenAI-compatibele servers:- Provider:
sglang - Auth: optioneel (afhankelijk van je server)
- Standaard basis-URL:
http://127.0.0.1:30000/v1
/v1/models worden geretourneerd):
Lokale proxy’s (LM Studio, vLLM, LiteLLM, enz.)
Voorbeeld (OpenAI-compatibel):Standaard optionele velden
Standaard optionele velden
Voor aangepaste providers zijn
reasoning, input, cost, contextWindow en maxTokens optioneel. Wanneer ze worden weggelaten, gebruikt OpenClaw standaard:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
Regels voor proxy-routevormgeving
Regels voor proxy-routevormgeving
- Voor
api: "openai-completions"op niet-native endpoints (elke niet-legebaseUrlwaarvan de host nietapi.openai.comis) dwingt OpenClawcompat.supportsDeveloperRole: falseaf om provider-400-fouten voor niet-ondersteundedeveloper-rollen te voorkomen. - Proxy-achtige OpenAI-compatibele routes slaan ook native, alleen-OpenAI-verzoekvormgeving over: geen
service_tier, geen Responsesstore, geen Completionsstore, geen promptcache-hints, geen OpenAI reasoning-compat payload-vormgeving en geen verborgen OpenClaw-attributieheaders. - Voor OpenAI-compatibele Completions-proxy’s die leveranciersspecifieke velden nodig hebben, stel je
agents.defaults.models["provider/model"].params.extra_body(ofextraBody) in om extra JSON samen te voegen in de uitgaande request-body. - Voor vLLM-chattemplates stel je
agents.defaults.models["provider/model"].params.chat_template_kwargsin. De gebundelde vLLM-Plugin verzendt automatischenable_thinking: falseenforce_nonempty_content: truevoorvllm/nemotron-3-*wanneer het denkniveau van de sessie uit staat. - Voor trage lokale modellen of externe LAN-/tailnet-hosts stel je
models.providers.<id>.timeoutSecondsin. Dit verlengt de afhandeling van HTTP-verzoeken aan providermodellen, inclusief verbinden, headers, bodystreaming en de totale afbreking van guarded-fetch, zonder de volledige runtime-time-out van de agent te verhogen. - Als
baseUrlleeg is of wordt weggelaten, behoudt OpenClaw het standaard OpenAI-gedrag (dat wordt omgezet naarapi.openai.com). - Voor de veiligheid wordt een expliciete
compat.supportsDeveloperRole: truenog steeds overschreven op niet-nativeopenai-completions-endpoints. - Voor
api: "anthropic-messages"op niet-directe endpoints (elke provider behalve de canoniekeanthropic, of een aangepastemodels.providers.anthropic.baseUrlwaarvan de host geen openbaarapi.anthropic.com-endpoint is) onderdrukt OpenClaw impliciete Anthropic-bètaheaders zoalsclaude-code-20250219,interleaved-thinking-2025-05-14en OAuth-markeringen, zodat aangepaste Anthropic-compatibele proxy’s niet-ondersteunde bètavlaggen niet afwijzen. Stelmodels.providers.<id>.headers["anthropic-beta"]expliciet in als je proxy specifieke bètafuncties nodig heeft.
CLI-voorbeelden
Gerelateerd
- Configuratiereferentie — modelconfiguratiesleutels
- Modelfailover — fallbackketens en retry-gedrag
- Modellen — modelconfiguratie en aliassen
- Providers — installatiespecifieke handleidingen per provider