Modell-Provider
Diese Seite behandelt LLM-/Modell-Provider (nicht Chat-Kanäle wie WhatsApp/Telegram). Regeln zur Modellauswahl finden Sie unter /concepts/models.Kurzregeln
- Modell-Refs verwenden
provider/model(Beispiel:opencode/claude-opus-4-6). - Wenn Sie
agents.defaults.modelssetzen, wird es zur Allowlist. - CLI-Helfer:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. - Fallback-Runtime-Regeln, Cooldown-Probes und Persistenz von Sitzungsüberschreibungen sind in /concepts/model-failover dokumentiert.
models.providers.*.models[].contextWindowsind native Modellmetadaten;models.providers.*.models[].contextTokensist die effektive Runtime-Obergrenze.- Provider-Plugins können Modellkataloge über
registerProvider({ catalog })einspeisen; OpenClaw führt diese Ausgabe inmodels.providerszusammen, bevormodels.jsongeschrieben wird. - Provider-Manifeste können
providerAuthEnvVarsdeklarieren, damit generische umgebungsbasierte Auth-Probes die Plugin-Runtime nicht laden müssen. Die verbleibende Core-Env-Var- Zuordnung ist nun nur noch für Nicht-Plugin-/Core-Provider und einige generische Präzedenz- Fälle da, etwa Anthropic-Onboarding mit API-Key-zuerst. - Provider-Plugins können Provider-Runtime-Verhalten auch über
normalizeModelId,normalizeTransport,normalizeConfig,applyNativeStreamingUsageCompat,resolveConfigApiKey,resolveSyntheticAuth,shouldDeferSyntheticProfileAuth,resolveDynamicModel,prepareDynamicModel,normalizeResolvedModel,contributeResolvedModelCompat,capabilities,normalizeToolSchemas,inspectToolSchemas,resolveReasoningOutputMode,prepareExtraParams,createStreamFn,wrapStreamFn,resolveTransportTurnState,resolveWebSocketSessionPolicy,createEmbeddingProvider,formatApiKey,refreshOAuth,buildAuthDoctorHint,matchesContextOverflowError,classifyFailoverReason,isCacheTtlEligible,buildMissingAuthMessage,suppressBuiltInModel,augmentModelCatalog,isBinaryThinking,supportsXHighThinking,resolveDefaultThinkingLevel,applyConfigDefaults,isModernModelRef,prepareRuntimeAuth,resolveUsageAuth,fetchUsageSnapshotundonModelSelectedbesitzen. - Hinweis: Provider-Runtime-
capabilitiessind gemeinsam genutzte Runner-Metadaten (Provider- Familie, Transcript-/Tooling-Besonderheiten, Transport-/Cache-Hinweise). Sie sind nicht dasselbe wie das public capability model, das beschreibt, was ein Plugin registriert (Text-Inferenz, Sprache usw.).
Plugin-eigenes Provider-Verhalten
Provider-Plugins können nun den Großteil der providerspezifischen Logik besitzen, während OpenClaw die generische Inferenzschleife beibehält. Typische Aufteilung:auth[].run/auth[].runNonInteractive: Provider besitzt Onboarding-/Login- Abläufe füropenclaw onboard,openclaw models authund Headless-Setupwizard.setup/wizard.modelPicker: Provider besitzt Auth-Auswahllabels, Legacy-Aliasse, Onboarding-Allowlist-Hinweise und Setup-Einträge in Onboarding-/Model-Pickerncatalog: Provider erscheint inmodels.providersnormalizeModelId: Provider normalisiert Legacy-/Preview-Modell-IDs vor Lookup oder KanonisierungnormalizeTransport: Provider normalisiertapi/baseUrlder Transport-Familie vor der generischen Modellassemblierung; OpenClaw prüft zuerst den passenden Provider, dann andere hook-fähige Provider-Plugins, bis eines den Transport tatsächlich ändertnormalizeConfig: Provider normalisiertmodels.providers.<id>-Konfiguration vor der Nutzung durch die Runtime; OpenClaw prüft zuerst den passenden Provider, dann andere hook-fähige Provider-Plugins, bis eines die Konfiguration tatsächlich ändert. Wenn kein Provider-Hook die Konfiguration umschreibt, normalisieren gebündelte Google-Familien-Helfer weiterhin unterstützte Google-Provider-Einträge.applyNativeStreamingUsageCompat: Provider wendet endpoint-gesteuerte native Streaming-Usage-Compat-Umschreibungen für Konfigurations-Provider anresolveConfigApiKey: Provider löst Env-Marker-Auth für Konfigurations-Provider auf, ohne das vollständige Laden der Runtime-Auth zu erzwingen.amazon-bedrockbesitzt hier außerdem einen integrierten AWS-Env-Marker-Resolver, obwohl Bedrock-Runtime-Auth die AWS-SDK-Default-Chain verwendet.resolveSyntheticAuth: Provider kann lokale/selbst gehostete oder andere konfigurationsgestützte Auth-Verfügbarkeit bereitstellen, ohne Secrets im Klartext zu persistierenshouldDeferSyntheticProfileAuth: Provider kann gespeicherte synthetische Profil- Platzhalter als niedrigere Priorität als umgebungs-/konfigurationsgestützte Auth markierenresolveDynamicModel: Provider akzeptiert Modell-IDs, die noch nicht im lokalen statischen Katalog vorhanden sindprepareDynamicModel: Provider benötigt eine Metadatenaktualisierung, bevor die dynamische Auflösung erneut versucht wirdnormalizeResolvedModel: Provider benötigt Umschreibungen von Transport oder Base URLcontributeResolvedModelCompat: Provider steuert Compat-Flags für seine Hersteller-Modelle bei, auch wenn sie über einen anderen kompatiblen Transport eintreffencapabilities: Provider veröffentlicht Besonderheiten von Transcript/Tooling/Provider-FamilienormalizeToolSchemas: Provider bereinigt Tool-Schemas, bevor der eingebettete Runner sie siehtinspectToolSchemas: Provider zeigt nach der Normalisierung transport-spezifische Schema-Warnungen anresolveReasoningOutputMode: Provider wählt native vs. getaggte Reasoning-Output-VerträgeprepareExtraParams: Provider setzt Standardwerte oder normalisiert Request-Parameter pro ModellcreateStreamFn: Provider ersetzt den normalen Stream-Pfad durch einen vollständig benutzerdefinierten TransportwrapStreamFn: Provider wendet Wrapper für Request-Header/Body/Model-Compat anresolveTransportTurnState: Provider liefert native Transport- Header oder Metadaten pro ZugresolveWebSocketSessionPolicy: Provider liefert native WebSocket-Sitzungs- Header oder eine Sitzungs-Cooldown-RichtliniecreateEmbeddingProvider: Provider besitzt Embedding-Verhalten für memory, wenn es besser in das Provider-Plugin als in den Core-Embedding-Switchboard gehörtformatApiKey: Provider formatiert gespeicherte Auth-Profile in den von Transport erwarteten Runtime-apiKey-StringrefreshOAuth: Provider besitzt OAuth-Refresh, wenn die gemeinsamenpi-ai- Refresher nicht ausreichenbuildAuthDoctorHint: Provider fügt Reparaturhinweise an, wenn OAuth-Refresh fehlschlägtmatchesContextOverflowError: Provider erkennt providerspezifische Context-Window-Overflow-Fehler, die generische Heuristiken übersehen würdenclassifyFailoverReason: Provider ordnet providerspezifische rohe Transport-/API- Fehler Failover-Gründen wie Rate-Limit oder Überlastung zuisCacheTtlEligible: Provider entscheidet, welche Upstream-Modell-IDs Prompt-Cache-TTL unterstützenbuildMissingAuthMessage: Provider ersetzt den generischen Auth-Store-Fehler durch einen providerspezifischen WiederherstellungshinweissuppressBuiltInModel: Provider blendet veraltete Upstream-Zeilen aus und kann einen herstellereigenen Fehler für direkte Auflösungsfehler zurückgebenaugmentModelCatalog: Provider hängt synthetische/finale Katalogzeilen nach Erkennung und Konfigurationszusammenführung anisBinaryThinking: Provider besitzt die UX für binäres Thinking an/aussupportsXHighThinking: Provider aktiviertxhighfür ausgewählte ModelleresolveDefaultThinkingLevel: Provider besitzt die Standard-/think-Richtlinie für eine ModellfamilieapplyConfigDefaults: Provider wendet providerspezifische globale Standardwerte während der Konfigurationsmaterialisierung basierend auf Auth-Modus, Umgebung oder Modellfamilie anisModernModelRef: Provider besitzt das Matching bevorzugter Live-/Smoke-ModelleprepareRuntimeAuth: Provider wandelt ein konfiguriertes Credential in ein kurzlebiges Runtime-Token umresolveUsageAuth: Provider löst Credentials für Verwendung/Quota für/usageund verwandte Status-/Reporting-Oberflächen auffetchUsageSnapshot: Provider besitzt das Abrufen/Parsen des Usage-Endpunkts, während der Core weiterhin die Zusammenfassungs-Shell und Formatierung besitztonModelSelected: Provider führt Effekte nach der Auswahl aus, etwa Telemetrie oder providerspezifische Sitzungsbuchführung
anthropic: Claude-4.6-Forward-Compat-Fallback, Hinweise zur Auth-Reparatur, Abruf von Usage- Endpunkten, Cache-TTL-/Provider-Familien-Metadaten und auth-bewusste globale Konfigurationsstandardwerteamazon-bedrock: provider-eigenes Matching von Context-Overflow und Failover-Grundklassifizierung für Bedrock-spezifische Throttle-/Not-ready-Fehler sowie die gemeinsame Replay-Familieanthropic-by-modelfür Claude-only-Replay-Policy- Guards auf Anthropic-Trafficanthropic-vertex: Claude-only-Replay-Policy-Guards auf Anthropic-Message- Trafficopenrouter: Durchreichen von Modell-IDs, Request-Wrapper, Provider-Capability- Hinweise, Bereinigung von Gemini-Thought-Signatures auf Proxy-Gemini-Traffic, Proxy- Reasoning-Injektion über die Stream-Familieopenrouter-thinking, Weiterleitung von Routing- Metadaten und Cache-TTL-Richtliniegithub-copilot: Onboarding/Device-Login, Forward-Compat-Modell-Fallback, Claude-Thinking-Transcript-Hinweise, Runtime-Token-Austausch und Abruf des Usage-Endpunktsopenai: GPT-5.4-Forward-Compat-Fallback, direkte OpenAI-Transport- Normalisierung, Codex-bewusste Missing-Auth-Hinweise, Unterdrückung von Spark, synthetische OpenAI-/Codex-Katalogzeilen, Thinking-/Live-Modell-Richtlinie, Alias-Normalisierung für Usage-Tokens (input/outputundprompt/completion-Familien), die gemeinsame Stream-Familieopenai-responses-defaultsfür native OpenAI-/Codex-Wrapper und Metadaten der Provider-Familiegoogleundgoogle-gemini-cli: Gemini-3.1-Forward-Compat-Fallback, native Gemini-Replay-Validierung, Bootstrap-Replay-Bereinigung, getaggter Reasoning-Output-Modus und Modern-Model-Matching; Gemini-CLI-OAuth besitzt außerdem die Formatierung von Auth-Profil-Tokens, Parsing von Usage-Tokens und Abruf des Quota-Endpunkts für Usage-Oberflächenmoonshot: gemeinsamer Transport, plugin-eigene Normalisierung von Thinking-Payloadskilocode: gemeinsamer Transport, plugin-eigene Request-Header, Normalisierung von Reasoning-Payloads, Bereinigung von Proxy-Gemini-Thought-Signatures und Cache-TTL- Richtliniezai: GLM-5-Forward-Compat-Fallback, Standardwerte fürtool_stream, Cache-TTL- Richtlinie, binäre-Thinking-/Live-Modell-Richtlinie und Usage-Auth + Quota-Abruf; unbekannteglm-5*-IDs werden aus dem gebündeltenglm-4.7-Template synthetisiertxai: native Responses-Transport-Normalisierung, Umschreibungen von/fast-Aliasen für Grok-Fast-Varianten, Standardtool_streamund xAI-spezifische Bereinigung von Tool-Schemas / Reasoning-Payloadsmistral: plugin-eigene Capability-Metadatenopencodeundopencode-go: plugin-eigene Capability-Metadaten plus Bereinigung von Proxy-Gemini-Thought-Signaturesbyteplus,cloudflare-ai-gateway,huggingface,kimi,nvidia,qianfan,stepfun,synthetic,together,venice,vercel-ai-gatewayundvolcengine: nur plugin-eigene Katalogeqwen: plugin-eigene Kataloge für Textmodelle plus gemeinsam genutzte Registrierungen für Media-Understanding- und Video-Generation-Provider für die multimodalen Oberflächen; die Qwen-Videogenerierung verwendet die Standard-DashScope-Video- Endpunkte mit gebündelten Wan-Modellen wiewan2.6-t2vundwan2.7-r2vminimax: plugin-eigene Kataloge, hybride Auswahl von Anthropic/OpenAI-Replay-Policy sowie Usage-Auth-/Snapshot-Logikxiaomi: plugin-eigene Kataloge plus Usage-Auth-/Snapshot-Logik
openai-Plugin besitzt jetzt beide Provider-IDs:
openai und openai-codex.
Dies deckt Provider ab, die noch in OpenClaws normale Transporte passen. Ein Provider,
der einen vollständig benutzerdefinierten Request-Executor benötigt, ist eine separate, tiefere Erweiterungsoberfläche.
API-Key-Rotation
- Unterstützt generische Provider-Rotation für ausgewählte Provider.
- Konfigurieren Sie mehrere Schlüssel über:
OPENCLAW_LIVE_<PROVIDER>_KEY(einzelne Live-Überschreibung, höchste Priorität)<PROVIDER>_API_KEYS(durch Komma oder Semikolon getrennte Liste)<PROVIDER>_API_KEY(primärer Schlüssel)<PROVIDER>_API_KEY_*(nummerierte Liste, z. B.<PROVIDER>_API_KEY_1)
- Für Google-Provider ist
GOOGLE_API_KEYzusätzlich als Fallback enthalten. - Die Reihenfolge der Schlüsselauswahl bewahrt die Priorität und dedupliziert Werte.
- Requests werden nur bei Rate-Limit-Antworten mit dem nächsten Schlüssel wiederholt (zum
Beispiel
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededoder periodische Usage-Limit-Meldungen). - Fehler ohne Rate-Limit schlagen sofort fehl; es wird keine Schlüsselrotation versucht.
- Wenn alle Kandidatenschlüssel fehlschlagen, wird der letzte Fehler aus dem letzten Versuch zurückgegeben.
Integrierte Provider (pi-ai-Katalog)
OpenClaw wird mit dem pi-ai-Katalog ausgeliefert. Für diese Provider ist keinemodels.providers-Konfiguration erforderlich; setzen Sie einfach Auth + wählen Sie ein Modell.
OpenAI
- Provider:
openai - Auth:
OPENAI_API_KEY - Optionale Rotation:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, plusOPENCLAW_LIVE_OPENAI_KEY(einzelne Überschreibung) - Beispielmodelle:
openai/gpt-5.4,openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - Standardtransport ist
auto(WebSocket-zuerst, SSE-Fallback) - Überschreiben Sie dies pro Modell über
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"oder"auto") - Das Warm-up für OpenAI Responses WebSocket ist standardmäßig über
params.openaiWsWarmupaktiviert (true/false) - OpenAI-Priority-Processing kann über
agents.defaults.models["openai/<model>"].params.serviceTieraktiviert werden /fastundparams.fastModeordnen direkteopenai/*-Responses-Requestsservice_tier=priorityaufapi.openai.comzu- Verwenden Sie
params.serviceTier, wenn Sie eine explizite Tier-Einstellung statt des gemeinsamen Schalters/fastmöchten - Versteckte OpenClaw-Attributions-Header (
originator,version,User-Agent) gelten nur auf nativem OpenAI-Traffic zuapi.openai.com, nicht für generische OpenAI-kompatible Proxys - Native OpenAI-Routen behalten außerdem Responses-
store, Prompt-Cache-Hinweise und OpenAI-Reasoning-Compat-Payload-Shaping bei; Proxy-Routen nicht openai/gpt-5.3-codex-sparkwird in OpenClaw absichtlich unterdrückt, da die Live-OpenAI-API es ablehnt; Spark wird als Codex-only behandelt
Anthropic
- Provider:
anthropic - Auth:
ANTHROPIC_API_KEY - Optionale Rotation:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, plusOPENCLAW_LIVE_ANTHROPIC_KEY(einzelne Überschreibung) - Beispielmodell:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKeyoderopenclaw onboard --auth-choice anthropic-cli - Direkte öffentliche Anthropic-Requests unterstützen den gemeinsamen Schalter
/fastundparams.fastMode, einschließlich per API-Key und OAuth authentifiziertem Traffic anapi.anthropic.com; OpenClaw ordnet dies Anthropic-service_tierzu (autovsstandard_only) - Abrechnungshinweis: Die öffentlichen Claude-Code-Dokumente von Anthropic enthalten weiterhin direkte Claude-Code-Terminalnutzung in den Claude-Plan-Limits. Separat hat Anthropic OpenClaw-Benutzer am 4. April 2026 um 12:00 PM PT / 8:00 PM BST informiert, dass der OpenClaw-Claude-Login-Pfad als Drittanbieter-Harness-Nutzung zählt und Extra Usage erfordert, die getrennt vom Abonnement abgerechnet wird.
- Das Anthropic-Setup-Token ist wieder als Legacy-/manueller OpenClaw-Pfad verfügbar. Verwenden Sie es in der Erwartung, dass Anthropic OpenClaw-Benutzern mitgeteilt hat, dass dieser Pfad Extra Usage erfordert.
OpenAI Code (Codex)
- Provider:
openai-codex - Auth: OAuth (ChatGPT)
- Beispielmodell:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexoderopenclaw models auth login --provider openai-codex - Standardtransport ist
auto(WebSocket-zuerst, SSE-Fallback) - Überschreiben Sie dies pro Modell über
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"oder"auto") params.serviceTierwird auch auf nativen Codex-Responses-Requests weitergereicht (chatgpt.com/backend-api)- Versteckte OpenClaw-Attributions-Header (
originator,version,User-Agent) werden nur auf nativem Codex-Traffic zuchatgpt.com/backend-apiangehängt, nicht an generische OpenAI-kompatible Proxys - Teilt denselben Schalter
/fastund dieselbeparams.fastMode-Konfiguration wie direkteopenai/*; OpenClaw ordnet diesservice_tier=priorityzu openai-codex/gpt-5.3-codex-sparkbleibt verfügbar, wenn der Codex-OAuth-Katalog es bereitstellt; abhängig von Berechtigungenopenai-codex/gpt-5.4behält nativescontextWindow = 1050000und ein Standard-Runtime-contextTokens = 272000; überschreiben Sie die Runtime-Obergrenze mitmodels.providers.openai-codex.models[].contextTokens- Richtlinienhinweis: OpenAI-Codex-OAuth wird explizit für externe Tools/Workflows wie OpenClaw unterstützt.
Andere gehostete Optionen im Abonnementstil
- Qwen Cloud: Qwen-Cloud-Provider-Oberfläche plus Zuordnung von Alibaba-DashScope- und Coding-Plan-Endpunkten
- MiniMax: MiniMax-Coding-Plan-OAuth- oder API-Key-Zugriff
- GLM Models: Z.AI Coding Plan oder allgemeine API-Endpunkte
OpenCode
- Auth:
OPENCODE_API_KEY(oderOPENCODE_ZEN_API_KEY) - Zen-Runtime-Provider:
opencode - Go-Runtime-Provider:
opencode-go - Beispielmodelle:
opencode/claude-opus-4-6,opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenoderopenclaw onboard --auth-choice opencode-go
Google Gemini (API-Key)
- Provider:
google - Auth:
GEMINI_API_KEY - Optionale Rotation:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2,GOOGLE_API_KEYals Fallback undOPENCLAW_LIVE_GEMINI_KEY(einzelne Überschreibung) - Beispielmodelle:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Kompatibilität: Legacy-OpenClaw-Konfiguration mit
google/gemini-3.1-flash-previewwird zugoogle/gemini-3-flash-previewnormalisiert - CLI:
openclaw onboard --auth-choice gemini-api-key - Direkte Gemini-Läufe akzeptieren außerdem
agents.defaults.models["google/<model>"].params.cachedContent(oder Legacy-cached_content), um einen provider-nativencachedContents/...-Handle weiterzugeben; Gemini-Cache-Treffer erscheinen als OpenClaw-cacheRead
Google Vertex und Gemini CLI
- Provider:
google-vertex,google-gemini-cli - Auth: Vertex verwendet gcloud ADC; Gemini CLI verwendet seinen OAuth-Ablauf
- Vorsicht: Gemini-CLI-OAuth in OpenClaw ist eine inoffizielle Integration. Einige Benutzer haben nach der Verwendung von Drittanbieter-Clients über Einschränkungen ihres Google-Kontos berichtet. Prüfen Sie die Google-Bedingungen und verwenden Sie ein nicht kritisches Konto, wenn Sie fortfahren möchten.
- Gemini-CLI-OAuth wird als Teil des gebündelten
google-Plugins ausgeliefert.- Installieren Sie zuerst Gemini CLI:
brew install gemini-cli- oder
npm install -g @google/gemini-cli
- Aktivieren:
openclaw plugins enable google - Login:
openclaw models auth login --provider google-gemini-cli --set-default - Standardmodell:
google-gemini-cli/gemini-3.1-pro-preview - Hinweis: Sie fügen keine Client-ID oder Secret in
openclaw.jsonein. Der CLI-Login-Ablauf speichert Tokens in Auth-Profilen auf dem Gateway-Host. - Wenn Requests nach dem Login fehlschlagen, setzen Sie
GOOGLE_CLOUD_PROJECToderGOOGLE_CLOUD_PROJECT_IDauf dem Gateway-Host. - Gemini-CLI-JSON-Antworten werden aus
responsegeparst; Usage fällt aufstatszurück, wobeistats.cachedzu OpenClaw-cacheReadnormalisiert wird.
- Installieren Sie zuerst Gemini CLI:
Z.AI (GLM)
- Provider:
zai - Auth:
ZAI_API_KEY - Beispielmodell:
zai/glm-5 - CLI:
openclaw onboard --auth-choice zai-api-key- Aliasse:
z.ai/*undz-ai/*werden zuzai/*normalisiert zai-api-keyerkennt den passenden Z.AI-Endpunkt automatisch;zai-coding-global,zai-coding-cn,zai-globalundzai-cnerzwingen eine bestimmte Oberfläche
- Aliasse:
Vercel AI Gateway
- Provider:
vercel-ai-gateway - Auth:
AI_GATEWAY_API_KEY - Beispielmodell:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Provider:
kilocode - Auth:
KILOCODE_API_KEY - Beispielmodell:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - Base URL:
https://api.kilo.ai/api/gateway/ - Der statische Fallback-Katalog enthält
kilocode/kilo/auto; die Live- Erkennung überhttps://api.kilo.ai/api/gateway/modelskann den Runtime- Katalog weiter erweitern. - Das genaue Upstream-Routing hinter
kilocode/kilo/autogehört zu Kilo Gateway und ist nicht in OpenClaw fest kodiert.
Andere gebündelte Provider-Plugins
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - Beispielmodell:
openrouter/auto - OpenClaw wendet die dokumentierten App-Attributions-Header von OpenRouter nur an, wenn
die Anfrage tatsächlich
openrouter.aiadressiert - OpenRouter-spezifische Anthropic-
cache_control-Marker werden ebenso nur auf verifizierten OpenRouter-Routen gesetzt, nicht auf beliebigen Proxy-URLs - OpenRouter bleibt auf dem Proxy-Stil-Pfad für OpenAI-Kompatibilität, daher
werden native nur-OpenAI-Request-Formungen (
serviceTier, Responses-store, Prompt-Cache-Hinweise, OpenAI-Reasoning-Compat-Payloads) nicht weitergereicht - Gemini-gestützte OpenRouter-Refs behalten nur die Bereinigung von Proxy-Gemini-Thought-Signatures; native Gemini-Replay-Validierung und Bootstrap-Umschreibungen bleiben deaktiviert
- Kilo Gateway:
kilocode(KILOCODE_API_KEY) - Beispielmodell:
kilocode/kilo/auto - Gemini-gestützte Kilo-Refs behalten denselben Pfad zur Bereinigung von Proxy-Gemini-Thought-Signatures;
kilocode/kilo/autound andere Hinweise auf Proxy-Reasoning ohne Unterstützung überspringen die Proxy-Reasoning-Injektion - MiniMax:
minimax(API-Key) undminimax-portal(OAuth) - Auth:
MINIMAX_API_KEYfürminimax;MINIMAX_OAUTH_TOKENoderMINIMAX_API_KEYfürminimax-portal - Beispielmodell:
minimax/MiniMax-M2.7oderminimax-portal/MiniMax-M2.7 - MiniMax-Onboarding/API-Key-Setup schreibt explizite M2.7-Modelldefinitionen mit
input: ["text", "image"]; der gebündelte Provider-Katalog hält die Chat-Refs text-only, bis diese Provider-Konfiguration materialisiert ist - Moonshot:
moonshot(MOONSHOT_API_KEY) - Beispielmodell:
moonshot/kimi-k2.5 - Kimi Coding:
kimi(KIMI_API_KEYoderKIMICODE_API_KEY) - Beispielmodell:
kimi/kimi-code - Qianfan:
qianfan(QIANFAN_API_KEY) - Beispielmodell:
qianfan/deepseek-v3.2 - Qwen Cloud:
qwen(QWEN_API_KEY,MODELSTUDIO_API_KEYoderDASHSCOPE_API_KEY) - Beispielmodell:
qwen/qwen3.5-plus - NVIDIA:
nvidia(NVIDIA_API_KEY) - Beispielmodell:
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun:
stepfun/stepfun-plan(STEPFUN_API_KEY) - Beispielmodelle:
stepfun/step-3.5-flash,stepfun-plan/step-3.5-flash-2603 - Together:
together(TOGETHER_API_KEY) - Beispielmodell:
together/moonshotai/Kimi-K2.5 - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - Beispielmodell:
xiaomi/mimo-v2-flash - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENoderHF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine:
volcengine(VOLCANO_ENGINE_API_KEY) - Beispielmodell:
volcengine-plan/ark-code-latest - BytePlus:
byteplus(BYTEPLUS_API_KEY) - Beispielmodell:
byteplus-plan/ark-code-latest - xAI:
xai(XAI_API_KEY)- Native gebündelte xAI-Requests verwenden den xAI-Responses-Pfad
/fastoderparams.fastMode: trueschreibengrok-3,grok-3-mini,grok-4undgrok-4-0709zu ihren*-fast-Varianten umtool_streamist standardmäßig aktiviert; setzen Sieagents.defaults.models["xai/<model>"].params.tool_streamauffalse, um es zu deaktivieren
- Mistral:
mistral(MISTRAL_API_KEY) - Beispielmodell:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- GLM-Modelle auf Cerebras verwenden die IDs
zai-glm-4.7undzai-glm-4.6. - OpenAI-kompatible Base URL:
https://api.cerebras.ai/v1.
- GLM-Modelle auf Cerebras verwenden die IDs
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Beispielmodell für Hugging Face Inference:
huggingface/deepseek-ai/DeepSeek-R1; CLI:openclaw onboard --auth-choice huggingface-api-key. Siehe Hugging Face (Inference).
Provider über models.providers (benutzerdefiniert/Base URL)
Verwenden Sie models.providers (oder models.json), um benutzerdefinierte Provider oder
OpenAI-/Anthropic-kompatible Proxys hinzuzufügen.
Viele der unten aufgeführten gebündelten Provider-Plugins veröffentlichen bereits einen Standardkatalog.
Verwenden Sie explizite models.providers.<id>-Einträge nur, wenn Sie die
Standard-Base-URL, Header oder Modellliste überschreiben möchten.
Moonshot AI (Kimi)
Moonshot wird als gebündeltes Provider-Plugin ausgeliefert. Verwenden Sie standardmäßig den integrierten Provider und fügen Sie einen explizitenmodels.providers.moonshot-Eintrag nur dann hinzu, wenn Sie die Base URL oder Modellmetadaten überschreiben müssen:
- Provider:
moonshot - Auth:
MOONSHOT_API_KEY - Beispielmodell:
moonshot/kimi-k2.5 - CLI:
openclaw onboard --auth-choice moonshot-api-keyoderopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
Kimi Coding verwendet den Anthropic-kompatiblen Endpunkt von Moonshot AI:- Provider:
kimi - Auth:
KIMI_API_KEY - Beispielmodell:
kimi/kimi-code
kimi/k2p5 bleibt als Kompatibilitäts-Modell-ID akzeptiert.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) bietet Zugriff auf Doubao und andere Modelle in China.- Provider:
volcengine(Coding:volcengine-plan) - Auth:
VOLCANO_ENGINE_API_KEY - Beispielmodell:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/*-
Katalog wird gleichzeitig registriert.
In Onboarding-/Konfigurations-Model-Pickern bevorzugt die Volcengine-Auth-Auswahl sowohl
volcengine/*- als auch volcengine-plan/*-Zeilen. Wenn diese Modelle noch nicht geladen sind,
fällt OpenClaw auf den ungefilterten Katalog zurück, statt einen leeren
providerbezogenen Picker anzuzeigen.
Verfügbare Modelle:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (international)
BytePlus ARK bietet internationalen Benutzern Zugriff auf dieselben Modelle wie Volcano Engine.- Provider:
byteplus(Coding:byteplus-plan) - Auth:
BYTEPLUS_API_KEY - Beispielmodell:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/*-
Katalog wird gleichzeitig registriert.
In Onboarding-/Konfigurations-Model-Pickern bevorzugt die BytePlus-Auth-Auswahl sowohl
byteplus/*- als auch byteplus-plan/*-Zeilen. Wenn diese Modelle noch nicht geladen sind,
fällt OpenClaw auf den ungefilterten Katalog zurück, statt einen leeren
providerbezogenen Picker anzuzeigen.
Verfügbare Modelle:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic bietet Anthropic-kompatible Modelle hinter dem Providersynthetic:
- Provider:
synthetic - Auth:
SYNTHETIC_API_KEY - Beispielmodell:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax wird übermodels.providers konfiguriert, da es benutzerdefinierte Endpunkte verwendet:
- MiniMax OAuth (Global):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - MiniMax API-Key (Global):
--auth-choice minimax-global-api - MiniMax API-Key (CN):
--auth-choice minimax-cn-api - Auth:
MINIMAX_API_KEYfürminimax;MINIMAX_OAUTH_TOKENoderMINIMAX_API_KEYfürminimax-portal
/fast on schreibt
MiniMax-M2.7 zu MiniMax-M2.7-highspeed um.
Plugin-eigene Capability-Aufteilung:
- Text-/Chat-Standardwerte bleiben auf
minimax/MiniMax-M2.7 - Bildgenerierung ist
minimax/image-01oderminimax-portal/image-01 - Bildverständnis ist plugin-eigenes
MiniMax-VL-01auf beiden MiniMax-Auth-Pfaden - Websuche bleibt auf Provider-ID
minimax
Ollama
Ollama wird als gebündeltes Provider-Plugin ausgeliefert und verwendet Ollamas native API:- Provider:
ollama - Auth: Nicht erforderlich (lokaler Server)
- Beispielmodell:
ollama/llama3.3 - Installation: https://ollama.com/download
http://127.0.0.1:11434 erkannt, wenn Sie sich mit
OLLAMA_API_KEY dafür entscheiden, und das gebündelte Provider-Plugin fügt Ollama direkt zu
openclaw onboard und dem Modell-Picker hinzu. Siehe /providers/ollama
für Onboarding, Cloud-/lokalen Modus und benutzerdefinierte Konfiguration.
vLLM
vLLM wird als gebündeltes Provider-Plugin für lokale/selbst gehostete OpenAI-kompatible Server ausgeliefert:- Provider:
vllm - Auth: Optional (abhängig von Ihrem Server)
- Standard-Base-URL:
http://127.0.0.1:8000/v1
/v1/models zurückgegeben werden):
SGLang
SGLang wird als gebündeltes Provider-Plugin für schnelle selbst gehostete OpenAI-kompatible Server ausgeliefert:- Provider:
sglang - Auth: Optional (abhängig von Ihrem Server)
- Standard-Base-URL:
http://127.0.0.1:30000/v1
/v1/models zurückgegeben werden):
Lokale Proxys (LM Studio, vLLM, LiteLLM usw.)
Beispiel (OpenAI-kompatibel):- Für benutzerdefinierte Provider sind
reasoning,input,cost,contextWindowundmaxTokensoptional. Wenn sie weggelassen werden, verwendet OpenClaw standardmäßig:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Empfohlen: Setzen Sie explizite Werte, die zu Ihren Proxy-/Modellgrenzen passen.
- Für
api: "openai-completions"auf nicht nativen Endpunkten (jede nicht leerebaseUrl, deren Host nichtapi.openai.comist) erzwingt OpenClawcompat.supportsDeveloperRole: false, um Provider-400-Fehler für nicht unterstütztedeveloper-Rollen zu vermeiden. - OpenAI-kompatible Routen im Proxy-Stil überspringen außerdem natives nur-OpenAI-Request-
Shaping: kein
service_tier, kein Responses-store, keine Prompt-Cache-Hinweise, kein OpenAI-Reasoning-Compat-Payload-Shaping und keine versteckten OpenClaw-Attributions- Header. - Wenn
baseUrlleer ist/weggelassen wird, behält OpenClaw das Standard-OpenAI-Verhalten bei (das zuapi.openai.comaufgelöst wird). - Aus Sicherheitsgründen wird auch ein explizites
compat.supportsDeveloperRole: trueauf nicht nativenopenai-completions-Endpunkten überschrieben.
CLI-Beispiele
Verwandt
- Models — Modellkonfiguration und Aliasse
- Model Failover — Fallback-Ketten und Wiederholungsverhalten
- Configuration Reference — Modell-Konfigurationsschlüssel
- Providers — Einrichtungsleitfäden pro Provider