Постачальники моделей
На цій сторінці описано LLM/постачальників моделей (а не канали чату, як-от WhatsApp/Telegram). Правила вибору моделей див. у /concepts/models.Швидкі правила
- Посилання на моделі використовують формат
provider/model(приклад:opencode/claude-opus-4-6). - Якщо ви задаєте
agents.defaults.models, це стає списком дозволених. - Допоміжні команди CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. - Резервні правила часу виконання, перевірки cool-down і збереження перевизначень сесії задокументовано в /concepts/model-failover.
models.providers.*.models[].contextWindow— це рідні метадані моделі;models.providers.*.models[].contextTokens— це фактичне обмеження часу виконання.- Плагіни постачальників можуть додавати каталоги моделей через
registerProvider({ catalog }); OpenClaw об’єднує цей вивід уmodels.providersперед записомmodels.json. - Маніфести постачальників можуть оголошувати
providerAuthEnvVars, щоб загальні перевірки автентифікації на основі змінних середовища не потребували завантаження часу виконання плагіна. Мапа змінних середовища в ядрі, що лишається, тепер використовується лише для постачальників ядра/без плагінів і кількох випадків загального пріоритету, як-от онбординг Anthropic із пріоритетом API-ключа. - Плагіни постачальників також можуть володіти поведінкою постачальника під час виконання через
normalizeModelId,normalizeTransport,normalizeConfig,applyNativeStreamingUsageCompat,resolveConfigApiKey,resolveSyntheticAuth,shouldDeferSyntheticProfileAuth,resolveDynamicModel,prepareDynamicModel,normalizeResolvedModel,contributeResolvedModelCompat,capabilities,normalizeToolSchemas,inspectToolSchemas,resolveReasoningOutputMode,prepareExtraParams,createStreamFn,wrapStreamFn,resolveTransportTurnState,resolveWebSocketSessionPolicy,createEmbeddingProvider,formatApiKey,refreshOAuth,buildAuthDoctorHint,matchesContextOverflowError,classifyFailoverReason,isCacheTtlEligible,buildMissingAuthMessage,suppressBuiltInModel,augmentModelCatalog,isBinaryThinking,supportsXHighThinking,resolveDefaultThinkingLevel,applyConfigDefaults,isModernModelRef,prepareRuntimeAuth,resolveUsageAuth,fetchUsageSnapshot, andonModelSelected. - Примітка:
capabilitiesпостачальника під час виконання — це спільні метадані раннера (сімейство постачальника, особливості transcript/tooling, підказки щодо transport/cache). Це не те саме, що публічна модель можливостей, яка описує, що реєструє плагін (текстовий inference, мовлення тощо).
Поведінка постачальника, якою володіє плагін
Тепер плагіни постачальників можуть володіти більшістю специфічної для постачальника логіки, тоді як OpenClaw зберігає загальний цикл inference. Типовий розподіл:auth[].run/auth[].runNonInteractive: постачальник володіє потоками онбордингу/входу дляopenclaw onboard,openclaw models authі безголового налаштуванняwizard.setup/wizard.modelPicker: постачальник володіє мітками вибору автентифікації, застарілими псевдонімами, підказками списку дозволених для онбордингу та елементами налаштування в засобах вибору онбордингу/моделейcatalog: постачальник з’являється вmodels.providersnormalizeModelId: постачальник нормалізує застарілі/preview ідентифікатори моделей перед пошуком або канонізацієюnormalizeTransport: постачальник нормалізуєapi/baseUrlсімейства transport перед загальним складанням моделі; OpenClaw спочатку перевіряє відповідного постачальника, потім інші плагіни постачальників із підтримкою хуків, доки один із них справді не змінить transportnormalizeConfig: постачальник нормалізує конфігураціюmodels.providers.<id>перед використанням під час виконання; OpenClaw спочатку перевіряє відповідного постачальника, потім інші плагіни постачальників із підтримкою хуків, доки один із них справді не змінить конфігурацію. Якщо жоден хук постачальника не переписує конфігурацію, вбудовані допоміжні засоби сімейства Google все одно нормалізують підтримувані записи постачальників Google.applyNativeStreamingUsageCompat: постачальник застосовує переписування сумісності використання native streaming, керовані endpoint, для конфігураційних постачальниківresolveConfigApiKey: постачальник визначає автентифікацію через маркер змінної середовища для конфігураційних постачальників без примусового завантаження повної runtime-автентифікації.amazon-bedrockтакож має вбудований розв’язувач AWS env-marker тут, хоча runtime-автентифікація Bedrock використовує стандартний ланцюжок AWS SDK.resolveSyntheticAuth: постачальник може надавати локальну/self-hosted або іншу доступність автентифікації, що спирається на конфігурацію, без збереження відкритих секретівshouldDeferSyntheticProfileAuth: постачальник може позначати збережені synthetic profile placeholders як менш пріоритетні, ніж автентифікація на основі env/configresolveDynamicModel: постачальник приймає ідентифікатори моделей, яких ще немає в локальному статичному каталозіprepareDynamicModel: постачальнику потрібне оновлення метаданих перед повторною спробою динамічного визначенняnormalizeResolvedModel: постачальнику потрібні переписування transport або base URLcontributeResolvedModelCompat: постачальник додає прапорці сумісності для своїх vendor-моделей, навіть якщо вони надходять через інший сумісний transportcapabilities: постачальник публікує особливості transcript/tooling/provider-familynormalizeToolSchemas: постачальник очищає схеми інструментів перед тим, як вбудований раннер їх побачитьinspectToolSchemas: постачальник показує попередження про схеми, специфічні для transport, після нормалізаціїresolveReasoningOutputMode: постачальник вибирає native чи tagged контракти виводу reasoningprepareExtraParams: постачальник задає типові або нормалізує параметри запиту для кожної моделіcreateStreamFn: постачальник замінює звичайний шлях stream повністю кастомним transportwrapStreamFn: постачальник застосовує обгортки сумісності для заголовків/тіла/моделі запитуresolveTransportTurnState: постачальник надає native заголовки transport або метадані для кожного turnresolveWebSocketSessionPolicy: постачальник надає native заголовки WebSocket-сесії або політику cool-down сесіїcreateEmbeddingProvider: постачальник володіє поведінкою embedding пам’яті, коли вона має належати плагіну постачальника, а не основному перемикачу embeddingformatApiKey: постачальник форматує збережені профілі автентифікації в runtime-рядокapiKey, який очікує transportrefreshOAuth: постачальник володіє оновленням OAuth, коли спільних засобів оновленняpi-aiнедостатньоbuildAuthDoctorHint: постачальник додає рекомендації з виправлення, коли оновлення OAuth не вдаєтьсяmatchesContextOverflowError: постачальник розпізнає специфічні для постачальника помилки переповнення контекстного вікна, які загальні евристики не виявлятьclassifyFailoverReason: постачальник зіставляє специфічні для постачальника сирі помилки transport/API з причинами failover, як-от обмеження швидкості або перевантаженняisCacheTtlEligible: постачальник вирішує, які upstream-ідентифікатори моделей підтримують TTL кешу promptbuildMissingAuthMessage: постачальник замінює загальну помилку сховища автентифікації на специфічну для постачальника підказку з відновленняsuppressBuiltInModel: постачальник приховує застарілі upstream-рядки та може повернути помилку, керовану vendor, для прямих помилок визначенняaugmentModelCatalog: постачальник додає synthetic/final рядки каталогу після виявлення та об’єднання конфігураційisBinaryThinking: постачальник володіє UX бінарного ввімкнення/вимкнення thinkingsupportsXHighThinking: постачальник додає вибраним моделям підтримкуxhighresolveDefaultThinkingLevel: постачальник володіє типовою політикою/thinkдля сімейства моделейapplyConfigDefaults: постачальник застосовує специфічні для постачальника глобальні значення за замовчуванням під час матеріалізації конфігурації на основі режиму автентифікації, env або сімейства моделейisModernModelRef: постачальник володіє зіставленням бажаної моделі для live/smokeprepareRuntimeAuth: постачальник перетворює налаштовані облікові дані на короткоживучий runtime-токенresolveUsageAuth: постачальник визначає облікові дані використання/квот для/usageі пов’язаних поверхонь статусу/звітностіfetchUsageSnapshot: постачальник володіє отриманням/розбором endpoint використання, тоді як ядро все ще володіє оболонкою підсумку та форматуваннямonModelSelected: постачальник виконує побічні дії після вибору моделі, як-от telemetry або ведення сесії, яким володіє постачальник
anthropic: резервна сумісність уперед для Claude 4.6, підказки з відновлення автентифікації, отримання endpoint використання, метадані cache-TTL/provider-family і глобальні значення конфігурації за замовчуванням з урахуванням автентифікаціїamazon-bedrock: зіставлення переповнення контексту та класифікація причин failover для специфічних для Bedrock помилок throttle/not-ready, а також спільне сімейство повторівanthropic-by-modelдля захисту політики повторів лише для Claude на трафіку Anthropicanthropic-vertex: захист політики повторів лише для Claude на Anthropic-message трафікуopenrouter: наскрізні ідентифікатори моделей, обгортки запитів, підказки можливостей постачальника, санітизація thought-signature Gemini на проксійованому трафіку Gemini, ін’єкція reasoning через проксі через сімейство streamopenrouter-thinking, пересилання метаданих маршрутизації та політика cache-TTLgithub-copilot: онбординг/вхід із пристрою, резервна сумісність моделей уперед, підказки transcript thinking для Claude, обмін runtime-токенів і отримання endpoint використанняopenai: резервна сумісність уперед для GPT-5.4, пряма нормалізація transport OpenAI, підказки про відсутню автентифікацію з урахуванням Codex, приглушення Spark, synthetic рядки каталогу OpenAI/Codex, політика thinking/live-model, нормалізація псевдонімів токенів використання (input/outputі сімействаprompt/completion), спільне сімейство streamopenai-responses-defaultsдля native обгорток OpenAI/Codex, метадані сімейства постачальника, реєстрація вбудованого постачальника генерації зображень дляgpt-image-1і вбудована реєстрація постачальника генерації відео дляsora-2google: резервна сумісність уперед для Gemini 3.1, native валідація повторів Gemini, санітизація bootstrap replay, режим tagged reasoning-output, зіставлення modern-model, вбудована реєстрація постачальника генерації зображень для моделей Gemini image-preview і вбудована реєстрація постачальника генерації відео для моделей Veomoonshot: спільний transport, нормалізація payload thinking, якою володіє плагінkilocode: спільний transport, заголовки запитів, якими володіє плагін, нормалізація payload reasoning, санітизація thought-signature Gemini через проксі та політика cache-TTLzai: резервна сумісність уперед для GLM-5, типові значенняtool_stream, політика cache-TTL, політика binary-thinking/live-model, а також автентифікація використання + отримання квот; невідомі ідентифікаториglm-5*синтезуються з шаблону вбудованогоglm-4.7xai: native нормалізація transport Responses, переписування псевдонімів/fastдля швидких варіантів Grok, типовеtool_stream, очищення специфічних для xAI схем інструментів / payload reasoning і вбудована реєстрація постачальника генерації відео дляgrok-imagine-videomistral: метадані можливостей, якими володіє плагінopencodeіopencode-go: метадані можливостей, якими володіє плагін, плюс санітизація thought-signature Gemini через проксіalibaba: каталог генерації відео, яким володіє плагін, для прямих посилань на моделі Wan як-отalibaba/wan2.6-t2vbyteplus: каталоги, якими володіє плагін, плюс вбудована реєстрація постачальника генерації відео для моделей text-to-video/image-to-video Seedancefal: вбудована реєстрація постачальника генерації відео для розміщених сторонніх моделей, реєстрація постачальника генерації зображень для моделей FLUX плюс вбудована реєстрація постачальника генерації відео для розміщених сторонніх відеомоделейcloudflare-ai-gateway,huggingface,kimi,nvidia,qianfan,stepfun,synthetic,venice,vercel-ai-gatewayіvolcengine: лише каталоги, якими володіє плагінqwen: каталоги, якими володіє плагін, для текстових моделей плюс спільні реєстрації постачальників media-understanding і video-generation для його мультимодальних поверхонь; генерація відео Qwen використовує стандартні video-endpoint-и DashScope з вбудованими моделями Wan, як-отwan2.6-t2vіwan2.7-r2vminimax: каталоги, якими володіє плагін, вбудована реєстрація постачальника генерації відео для моделей відео Hailuo, вбудована реєстрація постачальника генерації зображень дляimage-01, гібридний вибір політики повторів Anthropic/OpenAI та логіка автентифікації/знімка використанняtogether: каталоги, якими володіє плагін, плюс вбудована реєстрація постачальника генерації відео для моделей відео Wanxiaomi: каталоги, якими володіє плагін, плюс логіка автентифікації/знімка використання
openai тепер володіє обома ідентифікаторами постачальника: openai і
openai-codex.
Це охоплює постачальників, які ще вписуються у звичайні transport-и OpenClaw. Постачальник,
якому потрібен повністю кастомний виконавець запитів, — це окрема, глибша поверхня розширення.
Ротація API-ключів
- Підтримує загальну ротацію постачальників для вибраних постачальників.
- Налаштуйте кілька ключів через:
OPENCLAW_LIVE_<PROVIDER>_KEY(єдине live-перевизначення, найвищий пріоритет)<PROVIDER>_API_KEYS(список через кому або крапку з комою)<PROVIDER>_API_KEY(основний ключ)<PROVIDER>_API_KEY_*(нумерований список, наприклад<PROVIDER>_API_KEY_1)
- Для постачальників Google
GOOGLE_API_KEYтакож включається як резервний варіант. - Порядок вибору ключів зберігає пріоритет і прибирає дублікати значень.
- Запити повторюються з наступним ключем лише у відповідях із обмеженням швидкості (наприклад
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededабо періодичних повідомленнях про обмеження використання). - Помилки, не пов’язані з обмеженням швидкості, одразу завершуються помилкою; ротація ключів не виконується.
- Коли всі можливі ключі не спрацьовують, повертається фінальна помилка з останньої спроби.
Вбудовані постачальники (каталог pi-ai)
OpenClaw постачається з каталогом pi‑ai. Для цих постачальників не потрібна конфігураціяmodels.providers; достатньо налаштувати автентифікацію та вибрати модель.
OpenAI
- Постачальник:
openai - Автентифікація:
OPENAI_API_KEY - Необов’язкова ротація:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, плюсOPENCLAW_LIVE_OPENAI_KEY(єдине перевизначення) - Приклади моделей:
openai/gpt-5.4,openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - Типовий transport —
auto(спочатку WebSocket, резервно SSE) - Перевизначення для кожної моделі через
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"або"auto") - Прогрівання OpenAI Responses WebSocket типово ввімкнене через
params.openaiWsWarmup(true/false) - Пріоритетну обробку OpenAI можна ввімкнути через
agents.defaults.models["openai/<model>"].params.serviceTier /fastіparams.fastModeзіставляють прямі запити Responsesopenai/*доservice_tier=priorityнаapi.openai.com- Використовуйте
params.serviceTier, якщо вам потрібен явний рівень замість спільного перемикача/fast - Приховані заголовки атрибуції OpenClaw (
originator,version,User-Agent) застосовуються лише до native-трафіку OpenAI наapi.openai.com, а не до загальних сумісних із OpenAI проксі - Native-маршрути OpenAI також зберігають Responses
store, підказки кешу prompt і формування payload для сумісності reasoning OpenAI; маршрути через проксі цього не роблять openai/gpt-5.3-codex-sparkнавмисно приглушено в OpenClaw, оскільки live OpenAI API його відхиляє; Spark вважається лише Codex
Anthropic
- Постачальник:
anthropic - Автентифікація:
ANTHROPIC_API_KEY - Необов’язкова ротація:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, плюсOPENCLAW_LIVE_ANTHROPIC_KEY(єдине перевизначення) - Приклад моделі:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - Прямі публічні запити Anthropic підтримують спільний перемикач
/fastіparams.fastMode, включно з трафіком із автентифікацією через API-ключ і OAuth, який надсилається наapi.anthropic.com; OpenClaw зіставляє це з Anthropicservice_tier(autoпротиstandard_only) - Примітка щодо білінгу: для Anthropic в OpenClaw практичний поділ — це API key або підписка Claude з Extra Usage. Anthropic повідомив користувачів OpenClaw 4 квітня 2026 року о 12:00 PM PT / 8:00 PM BST, що шлях входу Claude в OpenClaw вважається використанням стороннього harness і вимагає Extra Usage, що оплачується окремо від підписки. Наші локальні відтворення також показують, що prompt-рядок із ідентифікацією OpenClaw не відтворюється на шляху Anthropic SDK + API-key.
- Setup-token Anthropic знову доступний як застарілий/ручний шлях OpenClaw. Використовуйте його з розумінням того, що Anthropic повідомив користувачам OpenClaw, що цей шлях вимагає Extra Usage.
OpenAI Code (Codex)
- Постачальник:
openai-codex - Автентифікація: OAuth (ChatGPT)
- Приклад моделі:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexабоopenclaw models auth login --provider openai-codex - Типовий transport —
auto(спочатку WebSocket, резервно SSE) - Перевизначення для кожної моделі через
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"або"auto") params.serviceTierтакож пересилається в native-запитах Codex Responses (chatgpt.com/backend-api)- Приховані заголовки атрибуції OpenClaw (
originator,version,User-Agent) додаються лише до native-трафіку Codex наchatgpt.com/backend-api, а не до загальних сумісних із OpenAI проксі - Використовує той самий перемикач
/fastі конфігураціюparams.fastMode, що й прямийopenai/*; OpenClaw зіставляє це зservice_tier=priority openai-codex/gpt-5.3-codex-sparkзалишається доступною, коли каталог Codex OAuth її показує; залежить від entitlementopenai-codex/gpt-5.4зберігає nativecontextWindow = 1050000і типове runtime-значенняcontextTokens = 272000; перевизначте runtime-обмеження черезmodels.providers.openai-codex.models[].contextTokens- Примітка щодо політики: OpenAI Codex OAuth явно підтримується для зовнішніх інструментів/потоків роботи, як-от OpenClaw.
Інші розміщені варіанти в стилі підписки
- Qwen Cloud: поверхня постачальника Qwen Cloud плюс зіставлення endpoint-ів Alibaba DashScope і Coding Plan
- MiniMax: доступ через OAuth або API key MiniMax Coding Plan
- GLM Models: Z.AI Coding Plan або загальні API-endpoint-и
OpenCode
- Автентифікація:
OPENCODE_API_KEY(абоOPENCODE_ZEN_API_KEY) - Постачальник runtime Zen:
opencode - Постачальник runtime Go:
opencode-go - Приклади моделей:
opencode/claude-opus-4-6,opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenабоopenclaw onboard --auth-choice opencode-go
Google Gemini (API key)
- Постачальник:
google - Автентифікація:
GEMINI_API_KEY - Необов’язкова ротація:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, резервнийGOOGLE_API_KEYіOPENCLAW_LIVE_GEMINI_KEY(єдине перевизначення) - Приклади моделей:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Сумісність: застаріла конфігурація OpenClaw з
google/gemini-3.1-flash-previewнормалізується доgoogle/gemini-3-flash-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - Прямі запуски Gemini також приймають
agents.defaults.models["google/<model>"].params.cachedContent(або застарілеcached_content) для пересилання native-дескриптора постачальникаcachedContents/...; попадання в кеш Gemini відображаються як OpenClawcacheRead
Google Vertex
- Постачальник:
google-vertex - Автентифікація: gcloud ADC
- JSON-відповіді Gemini CLI розбираються з
response; використання резервно береться зstats, аstats.cachedнормалізується в OpenClawcacheRead.
- JSON-відповіді Gemini CLI розбираються з
Z.AI (GLM)
- Постачальник:
zai - Автентифікація:
ZAI_API_KEY - Приклад моделі:
zai/glm-5 - CLI:
openclaw onboard --auth-choice zai-api-key- Псевдоніми:
z.ai/*іz-ai/*нормалізуються доzai/* zai-api-keyавтоматично визначає відповідний endpoint Z.AI;zai-coding-global,zai-coding-cn,zai-globalіzai-cnпримусово вибирають певну поверхню
- Псевдоніми:
Vercel AI Gateway
- Постачальник:
vercel-ai-gateway - Автентифікація:
AI_GATEWAY_API_KEY - Приклад моделі:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Постачальник:
kilocode - Автентифікація:
KILOCODE_API_KEY - Приклад моделі:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - Base URL:
https://api.kilo.ai/api/gateway/ - Статичний резервний каталог постачається з
kilocode/kilo/auto; live-виявлення черезhttps://api.kilo.ai/api/gateway/modelsможе додатково розширити runtime-каталог. - Точна upstream-маршрутизація за
kilocode/kilo/autoналежить Kilo Gateway, а не жорстко закодована в OpenClaw.
Інші вбудовані плагіни постачальників
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - Приклад моделі:
openrouter/auto - OpenClaw застосовує задокументовані заголовки атрибуції застосунку OpenRouter лише тоді, коли
запит справді надсилається на
openrouter.ai - Маркери
cache_control, специфічні для OpenRouter Anthropic, так само обмежуються перевіреними маршрутами OpenRouter, а не довільними proxy URL - OpenRouter лишається на проксійному шляху, сумісному з OpenAI, тож native-формування
запитів лише для OpenAI (
serviceTier, Responsesstore, підказки кешу prompt, payload для сумісності reasoning OpenAI) не пересилається - Посилання OpenRouter на основі Gemini зберігають лише санітизацію thought-signature Gemini через проксі; native-валідація повторів Gemini і переписування bootstrap лишаються вимкненими
- Kilo Gateway:
kilocode(KILOCODE_API_KEY) - Приклад моделі:
kilocode/kilo/auto - Посилання Kilo на основі Gemini зберігають той самий шлях санітизації thought-signature
Gemini через проксі; підказки
kilocode/kilo/autoта інші підказки про непідтримку proxy reasoning пропускають ін’єкцію reasoning через проксі - MiniMax:
minimax(API key) іminimax-portal(OAuth) - Автентифікація:
MINIMAX_API_KEYдляminimax;MINIMAX_OAUTH_TOKENабоMINIMAX_API_KEYдляminimax-portal - Приклад моделі:
minimax/MiniMax-M2.7абоminimax-portal/MiniMax-M2.7 - Налаштування MiniMax через онбординг/API-key записує явні визначення моделі M2.7 з
input: ["text", "image"]; вбудований каталог постачальника зберігає посилання чату лише текстовими, доки не буде матеріалізовано конфігурацію постачальника - Moonshot:
moonshot(MOONSHOT_API_KEY) - Приклад моделі:
moonshot/kimi-k2.5 - Kimi Coding:
kimi(KIMI_API_KEYабоKIMICODE_API_KEY) - Приклад моделі:
kimi/kimi-code - Qianfan:
qianfan(QIANFAN_API_KEY) - Приклад моделі:
qianfan/deepseek-v3.2 - Qwen Cloud:
qwen(QWEN_API_KEY,MODELSTUDIO_API_KEYабоDASHSCOPE_API_KEY) - Приклад моделі:
qwen/qwen3.5-plus - NVIDIA:
nvidia(NVIDIA_API_KEY) - Приклад моделі:
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun:
stepfun/stepfun-plan(STEPFUN_API_KEY) - Приклади моделей:
stepfun/step-3.5-flash,stepfun-plan/step-3.5-flash-2603 - Together:
together(TOGETHER_API_KEY) - Приклад моделі:
together/moonshotai/Kimi-K2.5 - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - Приклад моделі:
xiaomi/mimo-v2-flash - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENабоHF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine:
volcengine(VOLCANO_ENGINE_API_KEY) - Приклад моделі:
volcengine-plan/ark-code-latest - BytePlus:
byteplus(BYTEPLUS_API_KEY) - Приклад моделі:
byteplus-plan/ark-code-latest - xAI:
xai(XAI_API_KEY)- Native-вбудовані запити xAI використовують шлях xAI Responses
/fastабоparams.fastMode: trueпереписуєgrok-3,grok-3-mini,grok-4іgrok-4-0709на їхні варіанти*-fasttool_streamтипово ввімкнений; установітьagents.defaults.models["xai/<model>"].params.tool_streamуfalse, щоб вимкнути його
- Mistral:
mistral(MISTRAL_API_KEY) - Приклад моделі:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- Моделі GLM у Cerebras використовують ідентифікатори
zai-glm-4.7іzai-glm-4.6. - Base URL, сумісний із OpenAI:
https://api.cerebras.ai/v1.
- Моделі GLM у Cerebras використовують ідентифікатори
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Приклад моделі Hugging Face Inference:
huggingface/deepseek-ai/DeepSeek-R1; CLI:openclaw onboard --auth-choice huggingface-api-key. Див. Hugging Face (Inference).
Постачальники через models.providers (custom/base URL)
Використовуйте models.providers (або models.json), щоб додати кастомних постачальників або
проксі, сумісні з OpenAI/Anthropic.
Багато з наведених нижче вбудованих плагінів постачальників уже публікують типовий каталог.
Використовуйте явні записи models.providers.<id> лише тоді, коли хочете перевизначити
типовий base URL, заголовки або список моделей.
Moonshot AI (Kimi)
Moonshot постачається як вбудований плагін постачальника. Типово використовуйте вбудованого постачальника, а явний записmodels.providers.moonshot додавайте лише тоді, коли
потрібно перевизначити base URL або метадані моделі:
- Постачальник:
moonshot - Автентифікація:
MOONSHOT_API_KEY - Приклад моделі:
moonshot/kimi-k2.5 - CLI:
openclaw onboard --auth-choice moonshot-api-keyабоopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
Kimi Coding використовує endpoint Moonshot AI, сумісний із Anthropic:- Постачальник:
kimi - Автентифікація:
KIMI_API_KEY - Приклад моделі:
kimi/kimi-code
kimi/k2p5 все ще приймається як сумісний ідентифікатор моделі.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) надає доступ до Doubao та інших моделей у Китаї.- Постачальник:
volcengine(coding:volcengine-plan) - Автентифікація:
VOLCANO_ENGINE_API_KEY - Приклад моделі:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/*
реєструється одночасно.
У засобах вибору моделі під час онбордингу/налаштування вибір автентифікації Volcengine віддає перевагу і рядкам
volcengine/*, і volcengine-plan/*. Якщо ці моделі ще не завантажено,
OpenClaw резервно використовує нефільтрований каталог замість порожнього
засобу вибору постачальника.
Доступні моделі:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (International)
BytePlus ARK надає міжнародним користувачам доступ до тих самих моделей, що й Volcano Engine.- Постачальник:
byteplus(coding:byteplus-plan) - Автентифікація:
BYTEPLUS_API_KEY - Приклад моделі:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/*
реєструється одночасно.
У засобах вибору моделі під час онбордингу/налаштування вибір автентифікації BytePlus віддає перевагу і рядкам
byteplus/*, і byteplus-plan/*. Якщо ці моделі ще не завантажено,
OpenClaw резервно використовує нефільтрований каталог замість порожнього
засобу вибору постачальника.
Доступні моделі:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic надає моделі, сумісні з Anthropic, через постачальникаsynthetic:
- Постачальник:
synthetic - Автентифікація:
SYNTHETIC_API_KEY - Приклад моделі:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax налаштовується черезmodels.providers, оскільки використовує кастомні endpoint-и:
- MiniMax OAuth (Global):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - MiniMax API key (Global):
--auth-choice minimax-global-api - MiniMax API key (CN):
--auth-choice minimax-cn-api - Автентифікація:
MINIMAX_API_KEYдляminimax;MINIMAX_OAUTH_TOKENабоMINIMAX_API_KEYдляminimax-portal
/fast on переписує
MiniMax-M2.7 на MiniMax-M2.7-highspeed.
Розподіл можливостей, яким володіє плагін:
- Типові значення text/chat лишаються на
minimax/MiniMax-M2.7 - Генерація зображень — це
minimax/image-01абоminimax-portal/image-01 - Розуміння зображень — це
MiniMax-VL-01, яким володіє плагін, на обох шляхах автентифікації MiniMax - Вебпошук лишається на ідентифікаторі постачальника
minimax
Ollama
Ollama постачається як вбудований плагін постачальника й використовує native API Ollama:- Постачальник:
ollama - Автентифікація: не потрібна (локальний сервер)
- Приклад моделі:
ollama/llama3.3 - Установлення: https://ollama.com/download
http://127.0.0.1:11434, коли ви вмикаєте її через
OLLAMA_API_KEY, а вбудований плагін постачальника додає Ollama безпосередньо до
openclaw onboard і засобу вибору моделей. Див. /providers/ollama
щодо онбордингу, хмарного/локального режиму та кастомної конфігурації.
vLLM
vLLM постачається як вбудований плагін постачальника для локальних/self-hosted серверів, сумісних із OpenAI:- Постачальник:
vllm - Автентифікація: необов’язкова (залежить від вашого сервера)
- Типовий base URL:
http://127.0.0.1:8000/v1
/v1/models):
SGLang
SGLang постачається як вбудований плагін постачальника для швидких self-hosted серверів, сумісних із OpenAI:- Постачальник:
sglang - Автентифікація: необов’язкова (залежить від вашого сервера)
- Типовий base URL:
http://127.0.0.1:30000/v1
/v1/models):
Локальні проксі (LM Studio, vLLM, LiteLLM тощо)
Приклад (сумісний із OpenAI):- Для кастомних постачальників
reasoning,input,cost,contextWindowіmaxTokensє необов’язковими. Якщо їх пропущено, OpenClaw типово використовує:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Рекомендовано: задавайте явні значення, що відповідають обмеженням вашого проксі/моделі.
- Для
api: "openai-completions"на не-native endpoint-ах (будь-який непорожнійbaseUrl, чий хост не єapi.openai.com) OpenClaw примусово встановлюєcompat.supportsDeveloperRole: false, щоб уникнути помилок 400 від постачальника через непідтримувані роліdeveloper. - Маршрути через проксі, сумісні з OpenAI, також пропускають native-формування
запитів лише для OpenAI: без
service_tier, без Responsesstore, без підказок кешу prompt, без формування payload для сумісності reasoning OpenAI і без прихованих заголовків атрибуції OpenClaw. - Якщо
baseUrlпорожній/не заданий, OpenClaw зберігає типову поведінку OpenAI (яка зіставляється зapi.openai.com). - З міркувань безпеки явне
compat.supportsDeveloperRole: trueвсе одно перевизначається на не-native endpoint-ахopenai-completions.
Приклади CLI
Пов’язані сторінки
- Models — конфігурація моделей і псевдоніми
- Model Failover — ланцюжки резервного перемикання та поведінка повторних спроб
- Configuration Reference — ключі конфігурації моделей
- Providers — інструкції з налаштування для кожного постачальника