Постачальники моделей
Ця сторінка охоплює постачальників LLM/моделей (а не канали чату, як-от WhatsApp/Telegram). Правила вибору моделей див. у /concepts/models.Швидкі правила
- Посилання на моделі використовують формат
provider/model(приклад:opencode/claude-opus-4-6). - Якщо ви задаєте
agents.defaults.models, це стає списком дозволених моделей. - Допоміжні команди CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. - Резервні правила середовища виконання, перевірки cooldown і збереження перевизначень сеансу задокументовані в /concepts/model-failover.
models.providers.*.models[].contextWindow— це власні метадані моделі;models.providers.*.models[].contextTokens— це фактичне обмеження середовища виконання.- Плагіни постачальників можуть додавати каталоги моделей через
registerProvider({ catalog }); OpenClaw об’єднує цей вивід уmodels.providersперед записомmodels.json. - Маніфести постачальників можуть оголошувати
providerAuthEnvVarsіproviderAuthAliases, щоб загальні перевірки автентифікації на основі env і варіанти постачальників не потребували завантаження середовища виконання плагіна. Решта карти env-змінних у ядрі тепер призначена лише для неплагінних/базових постачальників і кількох випадків загального пріоритету, таких як онбординг Anthropic з пріоритетом API-ключа. - Плагіни постачальників також можуть володіти поведінкою постачальника в середовищі виконання через
normalizeModelId,normalizeTransport,normalizeConfig,applyNativeStreamingUsageCompat,resolveConfigApiKey,resolveSyntheticAuth,shouldDeferSyntheticProfileAuth,resolveDynamicModel,prepareDynamicModel,normalizeResolvedModel,contributeResolvedModelCompat,capabilities,normalizeToolSchemas,inspectToolSchemas,resolveReasoningOutputMode,prepareExtraParams,createStreamFn,wrapStreamFn,resolveTransportTurnState,resolveWebSocketSessionPolicy,createEmbeddingProvider,formatApiKey,refreshOAuth,buildAuthDoctorHint,matchesContextOverflowError,classifyFailoverReason,isCacheTtlEligible,buildMissingAuthMessage,suppressBuiltInModel,augmentModelCatalog,isBinaryThinking,supportsXHighThinking,resolveDefaultThinkingLevel,applyConfigDefaults,isModernModelRef,prepareRuntimeAuth,resolveUsageAuth,fetchUsageSnapshot, andonModelSelected. - Примітка:
capabilitiesпостачальника в середовищі виконання — це спільні метадані раннера (сімейство постачальника, особливості стенограми/інструментів, підказки щодо транспорту/кешу). Це не те саме, що публічна модель можливостей, яка описує, що реєструє плагін (текстова інференція, мовлення тощо). - Вбудований постачальник
codexпоєднаний із вбудованим агентним harness Codex. Використовуйтеcodex/gpt-*, коли вам потрібні вхід, пошук моделей, власне відновлення потоків і виконання на сервері застосунку, якими володіє Codex. Звичайні посиланняopenai/gpt-*і надалі використовують постачальника OpenAI та стандартний транспорт постачальника OpenClaw. У розгортаннях лише з Codex можна вимкнути автоматичний резервний перехід до PI за допомогоюagents.defaults.embeddedHarness.fallback: "none"; див. Codex Harness.
Поведінка постачальника під керуванням плагіна
Плагіни постачальників тепер можуть володіти більшістю специфічної для постачальника логіки, тоді як OpenClaw зберігає загальний цикл інференції. Типовий розподіл:auth[].run/auth[].runNonInteractive: постачальник володіє потоками онбордингу/входу дляopenclaw onboard,openclaw models authі безголового налаштуванняwizard.setup/wizard.modelPicker: постачальник володіє мітками вибору автентифікації, застарілими псевдонімами, підказками для списку дозволених моделей під час онбордингу та записами налаштування у вибірниках онбордингу/моделейcatalog: постачальник з’являється вmodels.providersnormalizeModelId: постачальник нормалізує застарілі/preview ідентифікатори моделей перед пошуком або канонізацієюnormalizeTransport: постачальник нормалізуєapi/baseUrlсімейства транспорту перед загальним складанням моделі; OpenClaw спочатку перевіряє відповідного постачальника, потім інші плагіни постачальників, що підтримують хуки, доки один із них справді не змінить транспортnormalizeConfig: постачальник нормалізує конфігураціюmodels.providers.<id>перед тим, як її використовуватиме середовище виконання; OpenClaw спочатку перевіряє відповідного постачальника, а потім інші плагіни постачальників, що підтримують хуки, доки один із них справді не змінить конфігурацію. Якщо жоден хук постачальника не переписує конфігурацію, вбудовані допоміжні засоби сімейства Google усе одно нормалізують підтримувані записи постачальників Google.applyNativeStreamingUsageCompat: постачальник застосовує переписування сумісності використання нативного потокового режиму на основі endpoint для конфігурованих постачальниківresolveConfigApiKey: постачальник визначає автентифікацію за env-marker для конфігурованих постачальників без примусового повного завантаження автентифікації середовища виконання.amazon-bedrockтакож має тут вбудований засіб визначення AWS env-marker, хоча автентифікація середовища виконання Bedrock використовує стандартний ланцюжок AWS SDK.resolveSyntheticAuth: постачальник може показувати доступність локальної/self-hosted або іншої автентифікації на основі конфігурації без збереження відкритих секретівshouldDeferSyntheticProfileAuth: постачальник може позначати збережені заповнювачі синтетичного профілю як такі, що мають нижчий пріоритет, ніж автентифікація на основі env/конфігураціїresolveDynamicModel: постачальник приймає ідентифікатори моделей, яких ще немає в локальному статичному каталозіprepareDynamicModel: постачальнику потрібне оновлення метаданих перед повторною спробою динамічного визначенняnormalizeResolvedModel: постачальнику потрібні переписування транспорту або базового URLcontributeResolvedModelCompat: постачальник додає прапори сумісності для своїх моделей вендора, навіть якщо вони надходять через інший сумісний транспортcapabilities: постачальник публікує особливості стенограм/інструментів/сімейства постачальникаnormalizeToolSchemas: постачальник очищує схеми інструментів до того, як їх побачить вбудований раннерinspectToolSchemas: постачальник показує специфічні для транспорту попередження щодо схем після нормалізаціїresolveReasoningOutputMode: постачальник вибирає нативні чи теговані контракти виводу міркуваньprepareExtraParams: постачальник задає значення за замовчуванням або нормалізує параметри запиту для кожної моделіcreateStreamFn: постачальник замінює звичайний шлях потокової передачі повністю власним транспортомwrapStreamFn: постачальник застосовує обгортки сумісності заголовків/тіла запиту/моделіresolveTransportTurnState: постачальник надає нативні транспортні заголовки або метадані для кожного крокуresolveWebSocketSessionPolicy: постачальник надає нативні заголовки сеансу WebSocket або політику cooldown сеансуcreateEmbeddingProvider: постачальник володіє поведінкою embedding пам’яті, коли вона належить плагіну постачальника, а не базовому комутатору embeddingformatApiKey: постачальник форматує збережені профілі автентифікації у рядокapiKeyсередовища виконання, який очікує транспортrefreshOAuth: постачальник володіє оновленням OAuth, коли спільних засобів оновленняpi-aiнедостатньоbuildAuthDoctorHint: постачальник додає підказки з виправлення, коли оновлення OAuth завершується невдачеюmatchesContextOverflowError: постачальник розпізнає специфічні для постачальника помилки переповнення контекстного вікна, які загальні евристики могли б пропуститиclassifyFailoverReason: постачальник зіставляє специфічні для постачальника сирі помилки транспорту/API з причинами резервного перемикання, як-от rate limit або overloadisCacheTtlEligible: постачальник визначає, які ідентифікатори моделей вище за потоком підтримують TTL кешу промптівbuildMissingAuthMessage: постачальник замінює загальну помилку сховища автентифікації на специфічну для постачальника підказку з відновленняsuppressBuiltInModel: постачальник приховує застарілі upstream-рядки та може повертати помилку під керуванням вендора для збоїв прямого визначенняaugmentModelCatalog: постачальник додає синтетичні/остаточні рядки каталогу після виявлення та об’єднання конфігураціїisBinaryThinking: постачальник володіє UX бінарного ввімкнення/вимкнення thinkingsupportsXHighThinking: постачальник вмикаєxhighдля вибраних моделейresolveDefaultThinkingLevel: постачальник володіє політикою/thinkза замовчуванням для сімейства моделейapplyConfigDefaults: постачальник застосовує специфічні для постачальника глобальні значення за замовчуванням під час матеріалізації конфігурації залежно від режиму автентифікації, env або сімейства моделейisModernModelRef: постачальник володіє зіставленням бажаної моделі для live/smokeprepareRuntimeAuth: постачальник перетворює налаштовані облікові дані на короткоживучий токен середовища виконанняresolveUsageAuth: постачальник визначає облікові дані використання/квоти для/usageі пов’язаних поверхонь статусу/звітностіfetchUsageSnapshot: постачальник володіє отриманням/розбором endpoint використання, тоді як ядро й надалі володіє оболонкою підсумку та форматуваннямonModelSelected: постачальник виконує побічні ефекти після вибору моделі, як-от телеметрія або ведення обліку сеансу під керуванням постачальника
anthropic: резервний режим сумісності вперед для Claude 4.6, підказки з відновлення автентифікації, отримання endpoint використання, метадані TTL кешу/сімейства постачальника та глобальні значення конфігурації за замовчуванням з урахуванням автентифікаціїamazon-bedrock: зіставлення переповнення контексту під керуванням постачальника та класифікація причин резервного перемикання для специфічних помилок Bedrock, пов’язаних із throttle/not-ready, а також спільне сімейство відтворенняanthropic-by-modelдля захисту політики відтворення лише для Claude у трафіку Anthropicanthropic-vertex: захист політики відтворення лише для Claude у трафіку повідомлень Anthropicopenrouter: наскрізні ідентифікатори моделей, обгортки запитів, підказки щодо можливостей постачальника, санітизація thought-signature Gemini у проксійованому трафіку Gemini, ін’єкція міркувань через проксі через сімейство потоківopenrouter-thinking, пересилання метаданих маршрутизації та політика TTL кешуgithub-copilot: онбординг/вхід за кодом пристрою, резервний режим сумісності вперед для моделей, підказки стенограми Claude-thinking, обмін токенів середовища виконання та отримання endpoint використанняopenai: резервний режим сумісності вперед для GPT-5.4, пряма нормалізація транспорту OpenAI, підказки про відсутню автентифікацію з урахуванням Codex, придушення Spark, синтетичні рядки каталогу OpenAI/Codex, політика thinking/live-model, нормалізація псевдонімів токенів використання (input/outputі сімействаprompt/completion), спільне сімейство потоківopenai-responses-defaultsдля нативних обгорток OpenAI/Codex, метадані сімейства постачальника, реєстрація вбудованого постачальника генерації зображень дляgpt-image-1і реєстрація вбудованого постачальника генерації відео дляsora-2googleіgoogle-gemini-cli: резервний режим сумісності вперед для Gemini 3.1, нативна перевірка відтворення Gemini, санітизація bootstrap-відтворення, тегований режим виводу міркувань, зіставлення сучасних моделей, реєстрація вбудованого постачальника генерації зображень для preview-моделей Gemini image і вбудована реєстрація постачальника генерації відео для моделей Veo; OAuth Gemini CLI також володіє форматуванням токенів профілю автентифікації, розбором токенів використання та отриманням endpoint квоти для поверхонь використанняmoonshot: спільний транспорт, нормалізація payload thinking під керуванням плагінаkilocode: спільний транспорт, заголовки запитів під керуванням плагіна, payload міркувань нормалізація, санітизація thought-signature proxy-Gemini та політика TTL кешуzai: резервний режим сумісності вперед для GLM-5, значення за замовчуваннямtool_stream, політика TTL кешу, політика binary-thinking/live-model і автентифікація використання + отримання квоти; невідомі ідентифікаториglm-5*синтезуються з вбудованого шаблонуglm-4.7xai: нативна нормалізація транспорту Responses, переписування псевдонімів/fastдля швидких варіантів Grok, типовийtool_stream, очищення схем інструментів / payload міркувань, специфічне для xAI, і реєстрація вбудованого постачальника генерації відео дляgrok-imagine-videomistral: метадані можливостей під керуванням плагінаopencodeіopencode-go: метадані можливостей під керуванням плагіна плюс санітизація thought-signature proxy-Geminialibaba: каталог генерації відео під керуванням плагіна для прямих посилань на моделі Wan, таких якalibaba/wan2.6-t2vbyteplus: каталоги під керуванням плагіна плюс реєстрація вбудованого постачальника генерації відео для моделей Seedance text-to-video/image-to-videofal: реєстрація вбудованого постачальника генерації відео для хостованих сторонніх моделей, реєстрація постачальника генерації зображень для моделей FLUX, а також вбудована реєстрація постачальника генерації відео для хостованих сторонніх відеомоделейcloudflare-ai-gateway,huggingface,kimi,nvidia,qianfan,stepfun,synthetic,venice,vercel-ai-gatewayіvolcengine: лише каталоги під керуванням плагінаqwen: каталоги текстових моделей під керуванням плагіна плюс спільні реєстрації постачальників media-understanding і генерації відео для його мультимодальних поверхонь; генерація відео Qwen використовує стандартні відеоendpoint DashScope із вбудованими моделями Wan, такими якwan2.6-t2vіwan2.7-r2vrunway: реєстрація постачальника генерації відео під керуванням плагіна для нативних моделей Runway на основі задач, таких якgen4.5minimax: каталоги під керуванням плагіна, реєстрація вбудованого постачальника генерації відео для моделей Hailuo video, реєстрація вбудованого постачальника генерації зображень дляimage-01, гібридний вибір політики відтворення Anthropic/OpenAI і логіка автентифікації/знімка використанняtogether: каталоги під керуванням плагіна плюс реєстрація вбудованого постачальника генерації відео для моделей Wan videoxiaomi: каталоги під керуванням плагіна плюс логіка автентифікації/знімка використання
openai тепер володіє обома ідентифікаторами постачальника: openai і
openai-codex.
Це охоплює постачальників, які досі вписуються у звичайні транспорти OpenClaw. Постачальник,
якому потрібен повністю власний виконавець запитів, — це окрема, глибша поверхня розширення.
Ротація API-ключів
- Підтримує загальну ротацію постачальників для вибраних постачальників.
- Налаштуйте кілька ключів через:
OPENCLAW_LIVE_<PROVIDER>_KEY(одне live-перевизначення, найвищий пріоритет)<PROVIDER>_API_KEYS(список, розділений комами або крапками з комою)<PROVIDER>_API_KEY(основний ключ)<PROVIDER>_API_KEY_*(нумерований список, наприклад<PROVIDER>_API_KEY_1)
- Для постачальників Google
GOOGLE_API_KEYтакож включається як резервний варіант. - Порядок вибору ключів зберігає пріоритет і видаляє дублікати значень.
- Запити повторюються з наступним ключем лише у відповідь на rate-limit помилки (наприклад
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededабо періодичні повідомлення про ліміт використання). - Невдачі, не пов’язані з rate-limit, одразу завершуються помилкою; ротація ключів не виконується.
- Коли всі можливі ключі не спрацьовують, повертається остання помилка з останньої спроби.
Вбудовані постачальники (каталог pi-ai)
OpenClaw постачається з каталогом pi‑ai. Ці постачальники не потребують конфігураціїmodels.providers; достатньо налаштувати автентифікацію та вибрати модель.
OpenAI
- Постачальник:
openai - Автентифікація:
OPENAI_API_KEY - Необов’язкова ротація:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, а такожOPENCLAW_LIVE_OPENAI_KEY(одне перевизначення) - Приклади моделей:
openai/gpt-5.4,openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - Транспорт за замовчуванням —
auto(спочатку WebSocket, потім резервно SSE) - Перевизначення для окремої моделі через
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"або"auto") - Розігрів WebSocket OpenAI Responses за замовчуванням увімкнено через
params.openaiWsWarmup(true/false) - Пріоритетну обробку OpenAI можна ввімкнути через
agents.defaults.models["openai/<model>"].params.serviceTier /fastіparams.fastModeзіставляють прямі запити Responsesopenai/*ізservice_tier=priorityнаapi.openai.com- Використовуйте
params.serviceTier, якщо вам потрібен явний рівень замість спільного перемикача/fast - Приховані заголовки атрибуції OpenClaw (
originator,version,User-Agent) застосовуються лише до нативного трафіку OpenAI наapi.openai.com, а не до універсальних проксі, сумісних з OpenAI - Нативні маршрути OpenAI також зберігають
storeResponses, підказки кешу промптів і формування payload сумісності міркувань OpenAI; проксі-маршрути цього не роблять openai/gpt-5.3-codex-sparkнавмисно приглушено в OpenClaw, оскільки live API OpenAI його відхиляє; Spark вважається доступним лише для Codex
Anthropic
- Постачальник:
anthropic - Автентифікація:
ANTHROPIC_API_KEY - Необов’язкова ротація:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, а такожOPENCLAW_LIVE_ANTHROPIC_KEY(одне перевизначення) - Приклад моделі:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - Прямі публічні запити Anthropic також підтримують спільний перемикач
/fastіparams.fastMode, зокрема для трафіку з автентифікацією API-ключем і OAuth, надісланого наapi.anthropic.com; OpenClaw зіставляє це з Anthropicservice_tier(autoпротиstandard_only) - Примітка щодо Anthropic: співробітники Anthropic повідомили нам, що використання Claude CLI у стилі OpenClaw знову дозволено, тож OpenClaw вважає повторне використання Claude CLI і використання
claude -pсанкціонованими для цієї інтеграції, якщо Anthropic не опублікує нову політику. - Setup token Anthropic залишається доступним як підтримуваний шлях токена OpenClaw, але тепер OpenClaw надає перевагу повторному використанню Claude CLI і
claude -p, коли це доступно.
OpenAI Code (Codex)
- Постачальник:
openai-codex - Автентифікація: OAuth (ChatGPT)
- Приклад моделі:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexабоopenclaw models auth login --provider openai-codex - Транспорт за замовчуванням —
auto(спочатку WebSocket, потім резервно SSE) - Перевизначення для окремої моделі через
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"або"auto") params.serviceTierтакож пересилається в нативних запитах Codex Responses (chatgpt.com/backend-api)- Приховані заголовки атрибуції OpenClaw (
originator,version,User-Agent) додаються лише до нативного трафіку Codex наchatgpt.com/backend-api, а не до універсальних проксі, сумісних з OpenAI - Використовує той самий спільний перемикач
/fastі конфігураціюparams.fastMode, що й прямийopenai/*; OpenClaw зіставляє це зservice_tier=priority openai-codex/gpt-5.3-codex-sparkзалишається доступною, коли каталог OAuth Codex її показує; залежить від entitlementopenai-codex/gpt-5.4зберігає нативніcontextWindow = 1050000і стандартне значення середовища виконанняcontextTokens = 272000; перевизначте ліміт середовища виконання черезmodels.providers.openai-codex.models[].contextTokens- Примітка щодо політики: OAuth OpenAI Codex прямо підтримується для зовнішніх інструментів/потоків роботи, таких як OpenClaw.
Інші хостовані варіанти в стилі підписки
- Qwen Cloud: поверхня постачальника Qwen Cloud, а також зіставлення endpoint Alibaba DashScope і Coding Plan
- MiniMax: доступ через OAuth або API-ключ MiniMax Coding Plan
- GLM Models: Z.AI Coding Plan або загальні API endpoint
OpenCode
- Автентифікація:
OPENCODE_API_KEY(абоOPENCODE_ZEN_API_KEY) - Постачальник середовища виконання Zen:
opencode - Постачальник середовища виконання Go:
opencode-go - Приклади моделей:
opencode/claude-opus-4-6,opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenабоopenclaw onboard --auth-choice opencode-go
Google Gemini (API-ключ)
- Постачальник:
google - Автентифікація:
GEMINI_API_KEY - Необов’язкова ротація:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, резервний варіантGOOGLE_API_KEYіOPENCLAW_LIVE_GEMINI_KEY(одне перевизначення) - Приклади моделей:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Сумісність: застарілу конфігурацію OpenClaw, що використовує
google/gemini-3.1-flash-preview, нормалізується доgoogle/gemini-3-flash-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - Прямі запуски Gemini також приймають
agents.defaults.models["google/<model>"].params.cachedContent(або застарілийcached_content) для пересилання нативного для постачальника дескриптораcachedContents/...; збіги кешу Gemini відображаються якcacheReadOpenClaw
Google Vertex і Gemini CLI
- Постачальники:
google-vertex,google-gemini-cli - Автентифікація: Vertex використовує gcloud ADC; Gemini CLI використовує власний потік OAuth
- Застереження: OAuth Gemini CLI в OpenClaw є неофіційною інтеграцією. Деякі користувачі повідомляли про обмеження облікових записів Google після використання сторонніх клієнтів. Ознайомтеся з умовами Google і використовуйте некритичний обліковий запис, якщо вирішите продовжити.
- OAuth Gemini CLI постачається як частина вбудованого плагіна
google.- Спочатку встановіть Gemini CLI:
brew install gemini-cli- або
npm install -g @google/gemini-cli
- Увімкніть:
openclaw plugins enable google - Увійдіть:
openclaw models auth login --provider google-gemini-cli --set-default - Модель за замовчуванням:
google-gemini-cli/gemini-3-flash-preview - Примітка: вам не потрібно вставляти client id або secret у
openclaw.json. Потік входу CLI зберігає токени в профілях автентифікації на хості шлюзу. - Якщо після входу запити завершуються помилкою, задайте
GOOGLE_CLOUD_PROJECTабоGOOGLE_CLOUD_PROJECT_IDна хості шлюзу. - JSON-відповіді Gemini CLI розбираються з
response; використання резервно береться зstats, аstats.cachedнормалізується в OpenClawcacheRead.
- Спочатку встановіть Gemini CLI:
Z.AI (GLM)
- Постачальник:
zai - Автентифікація:
ZAI_API_KEY - Приклад моделі:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- Псевдоніми:
z.ai/*іz-ai/*нормалізуються доzai/* zai-api-keyавтоматично визначає відповідний endpoint Z.AI;zai-coding-global,zai-coding-cn,zai-globalіzai-cnпримусово задають конкретну поверхню
- Псевдоніми:
Vercel AI Gateway
- Постачальник:
vercel-ai-gateway - Автентифікація:
AI_GATEWAY_API_KEY - Приклад моделі:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Постачальник:
kilocode - Автентифікація:
KILOCODE_API_KEY - Приклад моделі:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - Базовий URL:
https://api.kilo.ai/api/gateway/ - Статичний резервний каталог постачається з
kilocode/kilo/auto; live виявлення черезhttps://api.kilo.ai/api/gateway/modelsможе додатково розширити каталог середовища виконання. - Точна upstream-маршрутизація за
kilocode/kilo/autoналежить Kilo Gateway, а не жорстко закодована в OpenClaw.
Інші вбудовані плагіни постачальників
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - Приклад моделі:
openrouter/auto - OpenClaw застосовує задокументовані OpenRouter заголовки атрибуції застосунку лише тоді, коли
запит справді спрямований на
openrouter.ai - Специфічні для OpenRouter маркери Anthropic
cache_controlтак само обмежені перевіреними маршрутами OpenRouter, а не довільними URL проксі - OpenRouter і надалі використовує проксі-стиль шляху, сумісного з OpenAI, тому
формування запитів, властиве лише нативному OpenAI (
serviceTier, Responsesstore, підказки кешу промптів, payload сумісності міркувань OpenAI), не пересилається - Посилання OpenRouter на основі Gemini зберігають лише санітизацію thought-signature proxy-Gemini; нативна перевірка відтворення Gemini та bootstrap-переписування залишаються вимкненими
- Kilo Gateway:
kilocode(KILOCODE_API_KEY) - Приклад моделі:
kilocode/kilo/auto - Посилання Kilo на основі Gemini зберігають той самий шлях санітизації thought-signature
proxy-Gemini;
kilocode/kilo/autoта інші підказки, що не підтримують proxy reasoning, пропускають ін’єкцію reasoning через проксі - MiniMax:
minimax(API-ключ) іminimax-portal(OAuth) - Автентифікація:
MINIMAX_API_KEYдляminimax;MINIMAX_OAUTH_TOKENабоMINIMAX_API_KEYдляminimax-portal - Приклад моделі:
minimax/MiniMax-M2.7абоminimax-portal/MiniMax-M2.7 - Налаштування онбордингу/API-ключа MiniMax записує явні визначення моделей M2.7 з
input: ["text", "image"]; вбудований каталог постачальника зберігає chat-посилання лише текстовими, доки не буде матеріалізовано конфігурацію цього постачальника - Moonshot:
moonshot(MOONSHOT_API_KEY) - Приклад моделі:
moonshot/kimi-k2.5 - Kimi Coding:
kimi(KIMI_API_KEYабоKIMICODE_API_KEY) - Приклад моделі:
kimi/kimi-code - Qianfan:
qianfan(QIANFAN_API_KEY) - Приклад моделі:
qianfan/deepseek-v3.2 - Qwen Cloud:
qwen(QWEN_API_KEY,MODELSTUDIO_API_KEYабоDASHSCOPE_API_KEY) - Приклад моделі:
qwen/qwen3.5-plus - NVIDIA:
nvidia(NVIDIA_API_KEY) - Приклад моделі:
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun:
stepfun/stepfun-plan(STEPFUN_API_KEY) - Приклади моделей:
stepfun/step-3.5-flash,stepfun-plan/step-3.5-flash-2603 - Together:
together(TOGETHER_API_KEY) - Приклад моделі:
together/moonshotai/Kimi-K2.5 - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - Приклад моделі:
xiaomi/mimo-v2-flash - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENабоHF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine:
volcengine(VOLCANO_ENGINE_API_KEY) - Приклад моделі:
volcengine-plan/ark-code-latest - BytePlus:
byteplus(BYTEPLUS_API_KEY) - Приклад моделі:
byteplus-plan/ark-code-latest - xAI:
xai(XAI_API_KEY)- Нативні вбудовані запити xAI використовують шлях xAI Responses
/fastабоparams.fastMode: trueпереписуєgrok-3,grok-3-mini,grok-4іgrok-4-0709на їхні варіанти*-fasttool_streamувімкнено за замовчуванням; задайтеagents.defaults.models["xai/<model>"].params.tool_streamякfalse, щоб вимкнути його
- Mistral:
mistral(MISTRAL_API_KEY) - Приклад моделі:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- Моделі GLM на Cerebras використовують ідентифікатори
zai-glm-4.7іzai-glm-4.6. - Базовий URL, сумісний з OpenAI:
https://api.cerebras.ai/v1.
- Моделі GLM на Cerebras використовують ідентифікатори
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Приклад моделі Hugging Face Inference:
huggingface/deepseek-ai/DeepSeek-R1; CLI:openclaw onboard --auth-choice huggingface-api-key. Див. Hugging Face (Inference).
Постачальники через models.providers (власний/base URL)
Використовуйте models.providers (або models.json) для додавання власних постачальників або
проксі, сумісних з OpenAI/Anthropic.
Багато з наведених нижче вбудованих плагінів постачальників уже публікують типовий каталог.
Використовуйте явні записи models.providers.<id> лише тоді, коли хочете перевизначити
типовий base URL, заголовки або список моделей.
Moonshot AI (Kimi)
Moonshot постачається як вбудований плагін постачальника. Використовуйте вбудованого постачальника за замовчуванням і додавайте явний записmodels.providers.moonshot лише тоді, коли вам
потрібно перевизначити base URL або метадані моделі:
- Постачальник:
moonshot - Автентифікація:
MOONSHOT_API_KEY - Приклад моделі:
moonshot/kimi-k2.5 - CLI:
openclaw onboard --auth-choice moonshot-api-keyабоopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
Kimi Coding використовує endpoint Moonshot AI, сумісний з Anthropic:- Постачальник:
kimi - Автентифікація:
KIMI_API_KEY - Приклад моделі:
kimi/kimi-code
kimi/k2p5 і далі приймається як сумісний ідентифікатор моделі.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) надає доступ до Doubao та інших моделей у Китаї.- Постачальник:
volcengine(coding:volcengine-plan) - Автентифікація:
VOLCANO_ENGINE_API_KEY - Приклад моделі:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/*
реєструється одночасно.
У вибірниках моделей onboarding/configure для вибору автентифікації Volcengine пріоритет надається і рядкам
volcengine/*, і volcengine-plan/*. Якщо ці моделі ще не завантажені,
OpenClaw повертається до нефільтрованого каталогу замість показу порожнього
вибірника в межах постачальника.
Доступні моделі:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (міжнародний)
BytePlus ARK надає міжнародним користувачам доступ до тих самих моделей, що й Volcano Engine.- Постачальник:
byteplus(coding:byteplus-plan) - Автентифікація:
BYTEPLUS_API_KEY - Приклад моделі:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/*
реєструється одночасно.
У вибірниках моделей onboarding/configure для вибору автентифікації BytePlus пріоритет надається і рядкам
byteplus/*, і byteplus-plan/*. Якщо ці моделі ще не завантажені,
OpenClaw повертається до нефільтрованого каталогу замість показу порожнього
вибірника в межах постачальника.
Доступні моделі:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic надає Anthropic-сумісні моделі через постачальникаsynthetic:
- Постачальник:
synthetic - Автентифікація:
SYNTHETIC_API_KEY - Приклад моделі:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax налаштовується черезmodels.providers, оскільки використовує власні endpoint:
- MiniMax OAuth (глобальний):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - API-ключ MiniMax (глобальний):
--auth-choice minimax-global-api - API-ключ MiniMax (CN):
--auth-choice minimax-cn-api - Автентифікація:
MINIMAX_API_KEYдляminimax;MINIMAX_OAUTH_TOKENабоMINIMAX_API_KEYдляminimax-portal
/fast on переписує
MiniMax-M2.7 на MiniMax-M2.7-highspeed.
Розподіл можливостей під керуванням плагіна:
- За замовчуванням текст/chat лишається на
minimax/MiniMax-M2.7 - Генерація зображень — це
minimax/image-01абоminimax-portal/image-01 - Розуміння зображень — це керований плагіном
MiniMax-VL-01на обох шляхах автентифікації MiniMax - Вебпошук лишається на ідентифікаторі постачальника
minimax
Ollama
Ollama постачається як вбудований плагін постачальника й використовує нативний API Ollama:- Постачальник:
ollama - Автентифікація: не потрібна (локальний сервер)
- Приклад моделі:
ollama/llama3.3 - Установлення: https://ollama.com/download
http://127.0.0.1:11434, коли ви явно вмикаєте це через
OLLAMA_API_KEY, а вбудований плагін постачальника додає Ollama безпосередньо до
openclaw onboard і вибірника моделей. Див. /providers/ollama
щодо онбордингу, хмарного/локального режиму та власної конфігурації.
vLLM
vLLM постачається як вбудований плагін постачальника для локальних/self-hosted серверів, сумісних з OpenAI:- Постачальник:
vllm - Автентифікація: необов’язкова (залежить від вашого сервера)
- Базовий URL за замовчуванням:
http://127.0.0.1:8000/v1
/v1/models):
SGLang
SGLang постачається як вбудований плагін постачальника для швидких self-hosted серверів, сумісних з OpenAI:- Постачальник:
sglang - Автентифікація: необов’язкова (залежить від вашого сервера)
- Базовий URL за замовчуванням:
http://127.0.0.1:30000/v1
/v1/models):
Локальні проксі (LM Studio, vLLM, LiteLLM тощо)
Приклад (сумісний з OpenAI):- Для власних постачальників
reasoning,input,cost,contextWindowіmaxTokensє необов’язковими. Якщо їх не задано, OpenClaw використовує такі значення за замовчуванням:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Рекомендовано: задавайте явні значення, які відповідають обмеженням вашого проксі/моделі.
- Для
api: "openai-completions"на ненативних endpoint (будь-який непорожнійbaseUrl, чий хост не єapi.openai.com) OpenClaw примусово задаєcompat.supportsDeveloperRole: false, щоб уникнути помилок постачальника 400 через непідтримувані роліdeveloper. - Проксі-маршрути в стилі OpenAI-compatible також пропускають формування запитів, властиве лише нативному OpenAI:
без
service_tier, без Responsesstore, без підказок кешу промптів, без формування payload сумісності міркувань OpenAI і без прихованих заголовків атрибуції OpenClaw. - Якщо
baseUrlпорожній/не вказаний, OpenClaw зберігає стандартну поведінку OpenAI (яка вказує наapi.openai.com). - Для безпеки явне
compat.supportsDeveloperRole: trueусе одно перевизначається на ненативних endpointopenai-completions.
Приклади CLI
Пов’язане
- Models — конфігурація моделей і псевдоніми
- Model Failover — ланцюжки резервного перемикання та поведінка повторних спроб
- Configuration Reference — ключі конфігурації моделей
- Providers — окремі довідники з налаштування постачальників