Dostawcy modeli
Ta strona dotyczy dostawców LLM/modeli (a nie kanałów czatu takich jak WhatsApp/Telegram). Zasady wyboru modeli znajdziesz w /concepts/models.Szybkie zasady
- Referencje modeli używają formatu
provider/model(przykład:opencode/claude-opus-4-6). - Jeśli ustawisz
agents.defaults.models, stanie się to listą dozwolonych. - Pomocniki CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. - Zapasowe reguły środowiska uruchomieniowego, sondy cooldown i utrwalanie nadpisań sesji są opisane w /concepts/model-failover.
models.providers.*.models[].contextWindowto natywne metadane modelu;models.providers.*.models[].contextTokensto efektywny limit środowiska uruchomieniowego.- Pluginy dostawców mogą wstrzykiwać katalogi modeli przez
registerProvider({ catalog }); OpenClaw scala te dane domodels.providersprzed zapisaniemmodels.json. - Manifesty dostawców mogą deklarować
providerAuthEnvVars, dzięki czemu ogólne sondy uwierzytelniania opartego na env nie muszą ładować środowiska uruchomieniowego pluginu. Pozostała mapą zmiennych env w rdzeniu jest teraz tylko dla dostawców niebędących pluginami / dostawców rdzeniowych oraz kilku przypadków ogólnego pierwszeństwa, takich jak onboarding Anthropic z kluczem API jako pierwszym wyborem. - Pluginy dostawców mogą też przejąć zachowanie środowiska uruchomieniowego dostawcy przez
normalizeModelId,normalizeTransport,normalizeConfig,applyNativeStreamingUsageCompat,resolveConfigApiKey,resolveSyntheticAuth,shouldDeferSyntheticProfileAuth,resolveDynamicModel,prepareDynamicModel,normalizeResolvedModel,contributeResolvedModelCompat,capabilities,normalizeToolSchemas,inspectToolSchemas,resolveReasoningOutputMode,prepareExtraParams,createStreamFn,wrapStreamFn,resolveTransportTurnState,resolveWebSocketSessionPolicy,createEmbeddingProvider,formatApiKey,refreshOAuth,buildAuthDoctorHint,matchesContextOverflowError,classifyFailoverReason,isCacheTtlEligible,buildMissingAuthMessage,suppressBuiltInModel,augmentModelCatalog,isBinaryThinking,supportsXHighThinking,resolveDefaultThinkingLevel,applyConfigDefaults,isModernModelRef,prepareRuntimeAuth,resolveUsageAuth,fetchUsageSnapshotorazonModelSelected. - Uwaga: środowiskowe
capabilitiesdostawcy to współdzielone metadane runnera (rodzina dostawcy, specyfika transkryptu/narzędzi, wskazówki transportu/cache). To nie jest to samo co publiczny model możliwości, który opisuje, co rejestruje plugin (wnioskowanie tekstowe, mowa itd.).
Zachowanie dostawcy należące do pluginu
Pluginy dostawców mogą teraz przejąć większość logiki specyficznej dla dostawcy, podczas gdy OpenClaw zachowuje ogólną pętlę wnioskowania. Typowy podział:auth[].run/auth[].runNonInteractive: dostawca kontroluje przepływy onboarding/login dlaopenclaw onboard,openclaw models authi konfiguracji bezgłowejwizard.setup/wizard.modelPicker: dostawca kontroluje etykiety wyboru uwierzytelniania, starsze aliasy, wskazówki listy dozwolonych dla onboardingu oraz wpisy konfiguracji w selektorach onboarding/modelcatalog: dostawca pojawia się wmodels.providersnormalizeModelId: dostawca normalizuje starsze/podglądowe ID modeli przed wyszukaniem lub kanonizacjąnormalizeTransport: dostawca normalizuje rodzinę transportuapi/baseUrlprzed ogólnym składaniem modelu; OpenClaw najpierw sprawdza dopasowanego dostawcę, potem inne pluginy dostawców obsługujące hooki, aż jeden faktycznie zmieni transportnormalizeConfig: dostawca normalizuje konfiguracjęmodels.providers.<id>zanim środowisko uruchomieniowe jej użyje; OpenClaw najpierw sprawdza dopasowanego dostawcę, potem inne pluginy dostawców obsługujące hooki, aż jeden faktycznie zmieni konfigurację. Jeśli żaden hook dostawcy nie przepisze konfiguracji, bundlowane pomocniki rodziny Google nadal normalizują obsługiwane wpisy dostawców Google.applyNativeStreamingUsageCompat: dostawca stosuje zgodnościowe przepisania użycia natywnego streamingu zależne od endpointu dla dostawców konfiguracyjnychresolveConfigApiKey: dostawca rozwiązuje uwierzytelnianie env-marker dla dostawców konfiguracyjnych bez wymuszania pełnego ładowania środowiska uruchomieniowego uwierzytelniania.amazon-bedrockma też wbudowany resolver env-marker AWS, mimo że uwierzytelnianie środowiska uruchomieniowego Bedrock używa domyślnego łańcucha AWS SDK.resolveSyntheticAuth: dostawca może ujawniać dostępność lokalnego/self-hosted lub innego uwierzytelniania opartego na konfiguracji bez utrwalania sekretów w jawnym tekścieshouldDeferSyntheticProfileAuth: dostawca może oznaczyć zapisane syntetyczne placeholdery profili jako mające niższe pierwszeństwo niż uwierzytelnianie oparte na env/konfiguracjiresolveDynamicModel: dostawca akceptuje ID modeli, których jeszcze nie ma w lokalnym statycznym kataloguprepareDynamicModel: dostawca wymaga odświeżenia metadanych przed ponowną próbą dynamicznego rozpoznanianormalizeResolvedModel: dostawca wymaga przepisania transportu lub base URLcontributeResolvedModelCompat: dostawca wnosi flagi zgodności dla swoich modeli producenta nawet wtedy, gdy docierają przez inny kompatybilny transportcapabilities: dostawca publikuje specyfikę transkryptu/narzędzi/rodziny dostawcynormalizeToolSchemas: dostawca czyści schematy narzędzi, zanim osadzony runner je zobaczyinspectToolSchemas: dostawca pokazuje ostrzeżenia o schematach specyficzne dla transportu po normalizacjiresolveReasoningOutputMode: dostawca wybiera natywne lub otagowane kontrakty wyjścia reasoningprepareExtraParams: dostawca ustawia wartości domyślne lub normalizuje parametry żądania dla modelucreateStreamFn: dostawca zastępuje zwykłą ścieżkę streamingu całkowicie niestandardowym transportemwrapStreamFn: dostawca stosuje opakowania zgodności nagłówków/treści/modelu żądaniaresolveTransportTurnState: dostawca dostarcza natywne nagłówki lub metadane transportu dla każdej turyresolveWebSocketSessionPolicy: dostawca dostarcza natywne nagłówki sesji WebSocket lub zasady cooldown sesjicreateEmbeddingProvider: dostawca kontroluje zachowanie embeddingów memory, gdy powinno należeć do pluginu dostawcy zamiast do przełącznika embeddingów w rdzeniuformatApiKey: dostawca formatuje zapisane profile uwierzytelniania do postaci ciąguapiKeyoczekiwanego przez transportrefreshOAuth: dostawca kontroluje odświeżanie OAuth, gdy współdzielone refresherypi-ainie wystarczająbuildAuthDoctorHint: dostawca dopisuje wskazówki naprawcze, gdy odświeżanie OAuth się nie powiedziematchesContextOverflowError: dostawca rozpoznaje błędy przepełnienia okna kontekstu specyficzne dla dostawcy, których ogólna heurystyka mogłaby nie wykryćclassifyFailoverReason: dostawca mapuje specyficzne dla dostawcy surowe błędy transportu/API na przyczyny failover, takie jak limit szybkości lub przeciążenieisCacheTtlEligible: dostawca decyduje, które ID modeli upstream obsługują TTL pamięci podręcznej promptówbuildMissingAuthMessage: dostawca zastępuje ogólny błąd magazynu uwierzytelniania wskazówką naprawczą specyficzną dla dostawcysuppressBuiltInModel: dostawca ukrywa nieaktualne wiersze upstream i może zwrócić błąd należący do producenta przy bezpośrednim niepowodzeniu rozpoznaniaaugmentModelCatalog: dostawca dopisuje syntetyczne/końcowe wiersze katalogu po wykryciu i scaleniu konfiguracjiisBinaryThinking: dostawca kontroluje UX myślenia binarnego włącz/wyłączsupportsXHighThinking: dostawca włączaxhighdla wybranych modeliresolveDefaultThinkingLevel: dostawca kontroluje domyślne zasady/thinkdla rodziny modeliapplyConfigDefaults: dostawca stosuje globalne wartości domyślne specyficzne dla dostawcy podczas materializacji konfiguracji na podstawie trybu uwierzytelniania, env lub rodziny modeliisModernModelRef: dostawca kontroluje dopasowanie preferowanych modeli live/smokeprepareRuntimeAuth: dostawca zamienia skonfigurowane poświadczenie na krótkożyjący token środowiska uruchomieniowegoresolveUsageAuth: dostawca rozwiązuje poświadczenia użycia/kwot dla/usagei powiązanych powierzchni statusu/raportowaniafetchUsageSnapshot: dostawca kontroluje pobieranie/parsowanie endpointu użycia, podczas gdy rdzeń nadal kontroluje powłokę podsumowania i formatowanieonModelSelected: dostawca uruchamia efekty uboczne po wyborze modelu, takie jak telemetria lub księgowanie sesji należące do dostawcy
anthropic: zapasowa zgodność do przodu Claude 4.6, wskazówki naprawy uwierzytelniania, pobieranie endpointu użycia, metadane cache-TTL/rodziny dostawcy i globalne wartości domyślne zależne od uwierzytelnianiaamazon-bedrock: dopasowywanie przepełnienia kontekstu należące do dostawcy i klasyfikacja przyczyn failover dla błędów throttling/not-ready specyficznych dla Bedrock, plus współdzielona rodzina powtórekanthropic-by-modeldla ochrony zasad replay tylko dla Claude na ruchu Anthropicanthropic-vertex: ochrona zasad replay tylko dla Claude na ruchu Anthropic-messageopenrouter: przepuszczanie ID modeli, opakowania żądań, wskazówki możliwości dostawcy, sanityzacja sygnatur myśli Gemini na ruchu proxy Gemini, wstrzykiwanie reasoning proxy przez rodzinę streaminguopenrouter-thinking, przekazywanie metadanych routingu i zasady cache-TTLgithub-copilot: onboarding/logowanie urządzenia, zapasowy model zgodny do przodu, wskazówki transkryptu Claude-thinking, wymiana tokena środowiska uruchomieniowego i pobieranie endpointu użyciaopenai: zapasowa zgodność do przodu GPT-5.4, normalizacja bezpośredniego transportu OpenAI, wskazówki brakującego uwierzytelniania uwzględniające Codex, tłumienie Spark, syntetyczne wiersze katalogu OpenAI/Codex, zasady thinking/live-model, normalizacja aliasów tokenów użycia (input/outputoraz rodzinyprompt/completion), współdzielona rodzina streaminguopenai-responses-defaultsdla natywnych opakowań OpenAI/Codex i metadane rodziny dostawcygoogleigoogle-gemini-cli: zapasowa zgodność do przodu Gemini 3.1, natywna walidacja replay Gemini, sanityzacja replay bootstrap, otagowany tryb wyjścia reasoning i dopasowanie nowoczesnych modeli; Gemini CLI OAuth kontroluje też formatowanie tokenów profilu uwierzytelniania, parsowanie tokenów użycia i pobieranie endpointu kwot dla powierzchni użyciamoonshot: współdzielony transport, normalizacja ładunku thinking należąca do pluginukilocode: współdzielony transport, nagłówki żądań należące do pluginu, normalizacja ładunku reasoning, sanityzacja sygnatur myśli proxy-Gemini i zasady cache-TTLzai: zapasowa zgodność do przodu GLM-5, wartości domyślnetool_stream, zasady cache-TTL, zasady binary-thinking/live-model oraz uwierzytelnianie użycia + pobieranie kwot; nieznane IDglm-5*są syntetyzowane z bundlowanego szablonuglm-4.7xai: normalizacja natywnego transportu Responses, przepisania aliasów/fastdla szybkich wariantów Grok, domyślnetool_streamoraz czyszczenie schematów narzędzi / ładunku reasoning specyficzne dla xAImistral: metadane możliwości należące do pluginuopencodeiopencode-go: metadane możliwości należące do pluginu oraz sanityzacja sygnatur myśli proxy-Geminibyteplus,cloudflare-ai-gateway,huggingface,kimi,nvidia,qianfan,stepfun,synthetic,together,venice,vercel-ai-gatewayivolcengine: tylko katalogi należące do pluginówqwen: katalogi należące do pluginu dla modeli tekstowych oraz współdzielone rejestracje dostawców media-understanding i video-generation dla jego powierzchni multimodalnych; generowanie wideo Qwen używa standardowych endpointów wideo DashScope z bundlowanymi modelami Wan, takimi jakwan2.6-t2viwan2.7-r2vminimax: katalogi należące do pluginu, hybrydowy wybór zasad replay Anthropic/OpenAI oraz logika uwierzytelniania/migawki użyciaxiaomi: katalogi należące do pluginu oraz logika uwierzytelniania/migawki użycia
openai kontroluje teraz oba ID dostawców: openai i
openai-codex.
To obejmuje dostawców, którzy nadal mieszczą się w zwykłych transportach OpenClaw. Dostawca,
który wymaga całkowicie niestandardowego wykonawcy żądań, jest osobną, głębszą
powierzchnią rozszerzeń.
Rotacja kluczy API
- Obsługuje ogólną rotację dostawców dla wybranych dostawców.
- Skonfiguruj wiele kluczy przez:
OPENCLAW_LIVE_<PROVIDER>_KEY(pojedyncze aktywne nadpisanie, najwyższy priorytet)<PROVIDER>_API_KEYS(lista rozdzielana przecinkami lub średnikami)<PROVIDER>_API_KEY(klucz główny)<PROVIDER>_API_KEY_*(lista numerowana, np.<PROVIDER>_API_KEY_1)
- Dla dostawców Google
GOOGLE_API_KEYjest też uwzględniany jako fallback. - Kolejność wyboru kluczy zachowuje priorytet i usuwa duplikaty wartości.
- Żądania są ponawiane z następnym kluczem tylko przy odpowiedziach z limitem szybkości (na
przykład
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededlub okresowe komunikaty o limicie użycia). - Błędy niezwiązane z limitem szybkości kończą się natychmiast; rotacja kluczy nie jest podejmowana.
- Gdy wszystkie kandydujące klucze zawiodą, zwracany jest końcowy błąd z ostatniej próby.
Wbudowani dostawcy (katalog pi-ai)
OpenClaw jest dostarczany z katalogiem pi-ai. Ci dostawcy nie wymagają konfiguracjimodels.providers; wystarczy ustawić uwierzytelnianie i wybrać model.
OpenAI
- Dostawca:
openai - Uwierzytelnianie:
OPENAI_API_KEY - Opcjonalna rotacja:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, plusOPENCLAW_LIVE_OPENAI_KEY(pojedyncze nadpisanie) - Przykładowe modele:
openai/gpt-5.4,openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - Domyślny transport to
auto(najpierw WebSocket, fallback do SSE) - Nadpisanie dla modelu przez
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"lub"auto") - Rozgrzewanie WebSocket OpenAI Responses jest domyślnie włączone przez
params.openaiWsWarmup(true/false) - Priorytetowe przetwarzanie OpenAI można włączyć przez
agents.defaults.models["openai/<model>"].params.serviceTier /fastiparams.fastModemapują bezpośrednie żądaniaopenai/*Responses naservice_tier=prioritynaapi.openai.com- Użyj
params.serviceTier, gdy chcesz jawny tier zamiast współdzielonego przełącznika/fast - Ukryte nagłówki atrybucji OpenClaw (
originator,version,User-Agent) mają zastosowanie tylko do natywnego ruchu OpenAI kierowanego doapi.openai.com, nie do ogólnych proxy kompatybilnych z OpenAI - Natywne trasy OpenAI zachowują też Responses
store, wskazówki pamięci podręcznej promptów oraz kształtowanie ładunków zgodności reasoning OpenAI; trasy proxy tego nie robią openai/gpt-5.3-codex-sparkjest celowo tłumiony w OpenClaw, ponieważ aktywne API OpenAI go odrzuca; Spark jest traktowany jako tylko Codex
Anthropic
- Dostawca:
anthropic - Uwierzytelnianie:
ANTHROPIC_API_KEY - Opcjonalna rotacja:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, plusOPENCLAW_LIVE_ANTHROPIC_KEY(pojedyncze nadpisanie) - Przykładowy model:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKeylubopenclaw onboard --auth-choice anthropic-cli - Bezpośrednie publiczne żądania Anthropic obsługują współdzielony przełącznik
/fastiparams.fastMode, w tym ruch uwierzytelniany kluczem API i OAuth wysyłany doapi.anthropic.com; OpenClaw mapuje to na Anthropicservice_tier(autovsstandard_only) - Uwaga dotycząca rozliczeń: publiczna dokumentacja Claude Code Anthropic nadal uwzględnia bezpośrednie użycie Claude Code w terminalu w limitach planu Claude. Osobno Anthropic poinformował użytkowników OpenClaw w dniu 4 kwietnia 2026 o 12:00 PT / 20:00 BST, że ścieżka logowania Claude w OpenClaw jest traktowana jako użycie zewnętrznego harnessu i wymaga Extra Usage rozliczanego oddzielnie od subskrypcji.
- Token konfiguracji Anthropic jest ponownie dostępny jako starsza/ręczna ścieżka OpenClaw. Używaj go ze świadomością, że Anthropic poinformował użytkowników OpenClaw, iż ta ścieżka wymaga Extra Usage.
OpenAI Code (Codex)
- Dostawca:
openai-codex - Uwierzytelnianie: OAuth (ChatGPT)
- Przykładowy model:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexlubopenclaw models auth login --provider openai-codex - Domyślny transport to
auto(najpierw WebSocket, fallback do SSE) - Nadpisanie dla modelu przez
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"lub"auto") params.serviceTierjest też przekazywane w natywnych żądaniach Codex Responses (chatgpt.com/backend-api)- Ukryte nagłówki atrybucji OpenClaw (
originator,version,User-Agent) są dołączane tylko do natywnego ruchu Codex kierowanego dochatgpt.com/backend-api, nie do ogólnych proxy kompatybilnych z OpenAI - Współdzieli ten sam przełącznik
/fasti konfiguracjęparams.fastModeco bezpośrednieopenai/*; OpenClaw mapuje to naservice_tier=priority openai-codex/gpt-5.3-codex-sparkpozostaje dostępny, gdy katalog OAuth Codex go udostępnia; zależy od uprawnieńopenai-codex/gpt-5.4zachowuje natywnecontextWindow = 1050000i domyślne środowiskowecontextTokens = 272000; nadpisz limit środowiska przezmodels.providers.openai-codex.models[].contextTokens- Uwaga dotycząca zasad: OpenAI Codex OAuth jest jawnie obsługiwane dla zewnętrznych narzędzi/przepływów pracy takich jak OpenClaw.
Inne hostowane opcje w stylu subskrypcyjnym
- Qwen Cloud: powierzchnia dostawcy Qwen Cloud oraz mapowanie endpointów Alibaba DashScope i Coding Plan
- MiniMax: dostęp MiniMax Coding Plan przez OAuth lub klucz API
- GLM Models: Z.AI Coding Plan lub ogólne endpointy API
OpenCode
- Uwierzytelnianie:
OPENCODE_API_KEY(lubOPENCODE_ZEN_API_KEY) - Dostawca środowiska uruchomieniowego Zen:
opencode - Dostawca środowiska uruchomieniowego Go:
opencode-go - Przykładowe modele:
opencode/claude-opus-4-6,opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenlubopenclaw onboard --auth-choice opencode-go
Google Gemini (klucz API)
- Dostawca:
google - Uwierzytelnianie:
GEMINI_API_KEY - Opcjonalna rotacja:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, fallbackGOOGLE_API_KEYorazOPENCLAW_LIVE_GEMINI_KEY(pojedyncze nadpisanie) - Przykładowe modele:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Zgodność: starsza konfiguracja OpenClaw używająca
google/gemini-3.1-flash-previewjest normalizowana dogoogle/gemini-3-flash-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - Bezpośrednie uruchomienia Gemini akceptują też
agents.defaults.models["google/<model>"].params.cachedContent(lub starszecached_content) do przekazania natywnego dla dostawcy uchwytucachedContents/...; trafienia pamięci podręcznej Gemini pojawiają się jako OpenClawcacheRead
Google Vertex i Gemini CLI
- Dostawcy:
google-vertex,google-gemini-cli - Uwierzytelnianie: Vertex używa gcloud ADC; Gemini CLI używa własnego przepływu OAuth
- Uwaga: Gemini CLI OAuth w OpenClaw to nieoficjalna integracja. Niektórzy użytkownicy zgłaszali ograniczenia kont Google po użyciu klientów zewnętrznych. Przejrzyj warunki Google i użyj niekrytycznego konta, jeśli zdecydujesz się kontynuować.
- Gemini CLI OAuth jest dostarczane jako część bundlowanego pluginu
google.- Najpierw zainstaluj Gemini CLI:
brew install gemini-cli- lub
npm install -g @google/gemini-cli
- Włącz:
openclaw plugins enable google - Zaloguj się:
openclaw models auth login --provider google-gemini-cli --set-default - Model domyślny:
google-gemini-cli/gemini-3.1-pro-preview - Uwaga: nie wklejasz client id ani secret do
openclaw.json. Przepływ logowania CLI zapisuje tokeny w profilach uwierzytelniania na hoście gateway. - Jeśli żądania nie działają po logowaniu, ustaw
GOOGLE_CLOUD_PROJECTlubGOOGLE_CLOUD_PROJECT_IDna hoście gateway. - Odpowiedzi JSON Gemini CLI są parsowane z
response; użycie korzysta zapasowo zstats, astats.cachedjest normalizowane do OpenClawcacheRead.
- Najpierw zainstaluj Gemini CLI:
Z.AI (GLM)
- Dostawca:
zai - Uwierzytelnianie:
ZAI_API_KEY - Przykładowy model:
zai/glm-5 - CLI:
openclaw onboard --auth-choice zai-api-key- Aliasy:
z.ai/*iz-ai/*są normalizowane dozai/* zai-api-keyautomatycznie wykrywa pasujący endpoint Z.AI;zai-coding-global,zai-coding-cn,zai-globalizai-cnwymuszają określoną powierzchnię
- Aliasy:
Vercel AI Gateway
- Dostawca:
vercel-ai-gateway - Uwierzytelnianie:
AI_GATEWAY_API_KEY - Przykładowy model:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Dostawca:
kilocode - Uwierzytelnianie:
KILOCODE_API_KEY - Przykładowy model:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - Base URL:
https://api.kilo.ai/api/gateway/ - Statyczny katalog fallback zawiera
kilocode/kilo/auto; aktywne wykrywaniehttps://api.kilo.ai/api/gateway/modelsmoże dalej rozszerzać katalog środowiska uruchomieniowego. - Dokładny routing upstream za
kilocode/kilo/autonależy do Kilo Gateway, a nie jest zakodowany na stałe w OpenClaw.
Inne bundlowane pluginy dostawców
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - Przykładowy model:
openrouter/auto - OpenClaw stosuje udokumentowane nagłówki atrybucji aplikacji OpenRouter tylko wtedy, gdy
żądanie faktycznie trafia do
openrouter.ai - Znaczniki
cache_controlAnthropic specyficzne dla OpenRouter również są ograniczone do zweryfikowanych tras OpenRouter, a nie dowolnych URL-i proxy - OpenRouter pozostaje na ścieżce w stylu proxy kompatybilnej z OpenAI, więc natywne
kształtowanie żądań tylko OpenAI (
serviceTier, Responsesstore, wskazówki pamięci podręcznej promptów, ładunki zgodności reasoning OpenAI) nie jest przekazywane - Referencje OpenRouter oparte na Gemini zachowują tylko sanityzację sygnatur myśli proxy-Gemini; natywna walidacja replay Gemini i przepisania bootstrap pozostają wyłączone
- Kilo Gateway:
kilocode(KILOCODE_API_KEY) - Przykładowy model:
kilocode/kilo/auto - Referencje Kilo oparte na Gemini zachowują tę samą ścieżkę sanityzacji sygnatur myśli
proxy-Gemini;
kilocode/kilo/autoi inne wskazówki proxy bez obsługi reasoning pomijają wstrzykiwanie reasoning proxy - MiniMax:
minimax(klucz API) iminimax-portal(OAuth) - Uwierzytelnianie:
MINIMAX_API_KEYdlaminimax;MINIMAX_OAUTH_TOKENlubMINIMAX_API_KEYdlaminimax-portal - Przykładowy model:
minimax/MiniMax-M2.7lubminimax-portal/MiniMax-M2.7 - Onboarding MiniMax / konfiguracja klucza API zapisuje jawne definicje modeli M2.7 z
input: ["text", "image"]; bundlowany katalog dostawcy utrzymuje referencje czatu tylko tekstowe, dopóki konfiguracja dostawcy nie zostanie zmaterializowana - Moonshot:
moonshot(MOONSHOT_API_KEY) - Przykładowy model:
moonshot/kimi-k2.5 - Kimi Coding:
kimi(KIMI_API_KEYlubKIMICODE_API_KEY) - Przykładowy model:
kimi/kimi-code - Qianfan:
qianfan(QIANFAN_API_KEY) - Przykładowy model:
qianfan/deepseek-v3.2 - Qwen Cloud:
qwen(QWEN_API_KEY,MODELSTUDIO_API_KEYlubDASHSCOPE_API_KEY) - Przykładowy model:
qwen/qwen3.5-plus - NVIDIA:
nvidia(NVIDIA_API_KEY) - Przykładowy model:
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun:
stepfun/stepfun-plan(STEPFUN_API_KEY) - Przykładowe modele:
stepfun/step-3.5-flash,stepfun-plan/step-3.5-flash-2603 - Together:
together(TOGETHER_API_KEY) - Przykładowy model:
together/moonshotai/Kimi-K2.5 - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - Przykładowy model:
xiaomi/mimo-v2-flash - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENlubHF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine:
volcengine(VOLCANO_ENGINE_API_KEY) - Przykładowy model:
volcengine-plan/ark-code-latest - BytePlus:
byteplus(BYTEPLUS_API_KEY) - Przykładowy model:
byteplus-plan/ark-code-latest - xAI:
xai(XAI_API_KEY)- Natywne bundlowane żądania xAI używają ścieżki xAI Responses
/fastlubparams.fastMode: trueprzepisujegrok-3,grok-3-mini,grok-4igrok-4-0709na warianty*-fasttool_streamjest domyślnie włączone; ustawagents.defaults.models["xai/<model>"].params.tool_streamnafalse, aby je wyłączyć
- Mistral:
mistral(MISTRAL_API_KEY) - Przykładowy model:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- Modele GLM w Cerebras używają ID
zai-glm-4.7izai-glm-4.6. - Base URL kompatybilny z OpenAI:
https://api.cerebras.ai/v1.
- Modele GLM w Cerebras używają ID
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Przykładowy model Hugging Face Inference:
huggingface/deepseek-ai/DeepSeek-R1; CLI:openclaw onboard --auth-choice huggingface-api-key. Zobacz Hugging Face (Inference).
Dostawcy przez models.providers (custom/base URL)
Użyj models.providers (lub models.json), aby dodać niestandardowych dostawców lub
proxy kompatybilne z OpenAI/Anthropic.
Wiele bundlowanych pluginów dostawców poniżej już publikuje domyślny katalog.
Używaj jawnych wpisów models.providers.<id> tylko wtedy, gdy chcesz nadpisać
domyślny base URL, nagłówki lub listę modeli.
Moonshot AI (Kimi)
Moonshot jest dostarczany jako bundlowany plugin dostawcy. Domyślnie używaj wbudowanego dostawcy, a jawny wpismodels.providers.moonshot dodawaj tylko wtedy, gdy
musisz nadpisać base URL lub metadane modelu:
- Dostawca:
moonshot - Uwierzytelnianie:
MOONSHOT_API_KEY - Przykładowy model:
moonshot/kimi-k2.5 - CLI:
openclaw onboard --auth-choice moonshot-api-keylubopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
Kimi Coding używa endpointu Moonshot AI kompatybilnego z Anthropic:- Dostawca:
kimi - Uwierzytelnianie:
KIMI_API_KEY - Przykładowy model:
kimi/kimi-code
kimi/k2p5 nadal jest akceptowane jako zgodnościowe ID modelu.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) zapewnia dostęp do Doubao i innych modeli w Chinach.- Dostawca:
volcengine(coding:volcengine-plan) - Uwierzytelnianie:
VOLCANO_ENGINE_API_KEY - Przykładowy model:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/*
jest rejestrowany jednocześnie.
W selektorach modeli onboarding/configure wybór uwierzytelniania Volcengine preferuje zarówno
wiersze volcengine/*, jak i volcengine-plan/*. Jeśli te modele nie są jeszcze załadowane,
OpenClaw wraca do nieprzefiltrowanego katalogu zamiast pokazywać pusty
selektor ograniczony do dostawcy.
Dostępne modele:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (International)
BytePlus ARK zapewnia międzynarodowym użytkownikom dostęp do tych samych modeli co Volcano Engine.- Dostawca:
byteplus(coding:byteplus-plan) - Uwierzytelnianie:
BYTEPLUS_API_KEY - Przykładowy model:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/*
jest rejestrowany jednocześnie.
W selektorach modeli onboarding/configure wybór uwierzytelniania BytePlus preferuje zarówno
wiersze byteplus/*, jak i byteplus-plan/*. Jeśli te modele nie są jeszcze załadowane,
OpenClaw wraca do nieprzefiltrowanego katalogu zamiast pokazywać pusty
selektor ograniczony do dostawcy.
Dostępne modele:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic udostępnia modele kompatybilne z Anthropic za dostawcąsynthetic:
- Dostawca:
synthetic - Uwierzytelnianie:
SYNTHETIC_API_KEY - Przykładowy model:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax jest konfigurowany przezmodels.providers, ponieważ używa niestandardowych endpointów:
- MiniMax OAuth (Global):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - MiniMax API key (Global):
--auth-choice minimax-global-api - MiniMax API key (CN):
--auth-choice minimax-cn-api - Uwierzytelnianie:
MINIMAX_API_KEYdlaminimax;MINIMAX_OAUTH_TOKENlubMINIMAX_API_KEYdlaminimax-portal
/fast on przepisuje
MiniMax-M2.7 na MiniMax-M2.7-highspeed.
Podział możliwości należących do pluginu:
- Domyślne tekst/czat pozostają na
minimax/MiniMax-M2.7 - Generowanie obrazów to
minimax/image-01lubminimax-portal/image-01 - Rozumienie obrazu to należący do pluginu
MiniMax-VL-01na obu ścieżkach uwierzytelniania MiniMax - Wyszukiwanie w sieci pozostaje na ID dostawcy
minimax
Ollama
Ollama jest dostarczana jako bundlowany plugin dostawcy i używa natywnego API Ollama:- Dostawca:
ollama - Uwierzytelnianie: brak wymagań (serwer lokalny)
- Przykładowy model:
ollama/llama3.3 - Instalacja: https://ollama.com/download
http://127.0.0.1:11434, gdy włączysz ją przez
OLLAMA_API_KEY, a bundlowany plugin dostawcy dodaje Ollama bezpośrednio do
openclaw onboard i selektora modeli. Zobacz /providers/ollama,
aby poznać onboarding, tryb cloud/local i konfigurację niestandardową.
vLLM
vLLM jest dostarczane jako bundlowany plugin dostawcy dla lokalnych/self-hosted serwerów kompatybilnych z OpenAI:- Dostawca:
vllm - Uwierzytelnianie: opcjonalne (zależy od Twojego serwera)
- Domyślny base URL:
http://127.0.0.1:8000/v1
/v1/models):
SGLang
SGLang jest dostarczany jako bundlowany plugin dostawcy dla szybkich self-hosted serwerów kompatybilnych z OpenAI:- Dostawca:
sglang - Uwierzytelnianie: opcjonalne (zależy od Twojego serwera)
- Domyślny base URL:
http://127.0.0.1:30000/v1
/v1/models):
Lokalne proxy (LM Studio, vLLM, LiteLLM itd.)
Przykład (kompatybilny z OpenAI):- Dla niestandardowych dostawców
reasoning,input,cost,contextWindowimaxTokenssą opcjonalne. Gdy zostaną pominięte, OpenClaw domyślnie używa:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Zalecane: ustaw jawne wartości zgodne z limitami Twojego proxy/modelu.
- Dla
api: "openai-completions"na nienatywnych endpointach (dowolny niepustybaseUrl, którego host nie jestapi.openai.com) OpenClaw wymuszacompat.supportsDeveloperRole: false, aby uniknąć błędów 400 od dostawcy dla nieobsługiwanych róldeveloper. - Trasy proxy kompatybilne z OpenAI pomijają też natywne kształtowanie żądań tylko OpenAI:
bez
service_tier, bez Responsesstore, bez wskazówek pamięci podręcznej promptów, bez kształtowania ładunków zgodności reasoning OpenAI i bez ukrytych nagłówków atrybucji OpenClaw. - Jeśli
baseUrljest pusty lub pominięty, OpenClaw zachowuje domyślne zachowanie OpenAI (które rozwiązuje się doapi.openai.com). - Dla bezpieczeństwa jawne
compat.supportsDeveloperRole: truenadal jest nadpisywane na nienatywnych endpointachopenai-completions.
Przykłady CLI
Powiązane
- Models — konfiguracja modeli i aliasy
- Model Failover — łańcuchy fallback i zachowanie ponownych prób
- Configuration Reference — klucze konfiguracji modeli
- Providers — przewodniki konfiguracji dla poszczególnych dostawców