Providers de modelo
Esta página cobre providers de LLM/modelo (não canais de chat como WhatsApp/Telegram). Para regras de seleção de modelo, consulte /concepts/models.Regras rápidas
- Referências de modelo usam
provider/model(exemplo:opencode/claude-opus-4-6). - Se você definir
agents.defaults.models, isso se tornará a allowlist. - Auxiliares da CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. - As regras de runtime de fallback, probes de cooldown e persistência de substituição por sessão estão documentadas em /concepts/model-failover.
models.providers.*.models[].contextWindowé metadado nativo do modelo;models.providers.*.models[].contextTokensé o limite efetivo em runtime.- Plugins de provider podem injetar catálogos de modelos via
registerProvider({ catalog }); o OpenClaw mescla essa saída emmodels.providersantes de gravarmodels.json. - Manifestos de provider podem declarar
providerAuthEnvVarspara que probes genéricos de autenticação baseados em env não precisem carregar o runtime do plugin. O mapa restante de variáveis de ambiente centrais agora é apenas para providers centrais/não plugin e alguns casos de precedência genérica, como onboarding da Anthropic com API key em primeiro lugar. - Plugins de provider também podem ser proprietários do comportamento de runtime do provider via
normalizeModelId,normalizeTransport,normalizeConfig,applyNativeStreamingUsageCompat,resolveConfigApiKey,resolveSyntheticAuth,shouldDeferSyntheticProfileAuth,resolveDynamicModel,prepareDynamicModel,normalizeResolvedModel,contributeResolvedModelCompat,capabilities,normalizeToolSchemas,inspectToolSchemas,resolveReasoningOutputMode,prepareExtraParams,createStreamFn,wrapStreamFn,resolveTransportTurnState,resolveWebSocketSessionPolicy,createEmbeddingProvider,formatApiKey,refreshOAuth,buildAuthDoctorHint,matchesContextOverflowError,classifyFailoverReason,isCacheTtlEligible,buildMissingAuthMessage,suppressBuiltInModel,augmentModelCatalog,isBinaryThinking,supportsXHighThinking,resolveDefaultThinkingLevel,applyConfigDefaults,isModernModelRef,prepareRuntimeAuth,resolveUsageAuth,fetchUsageSnapshoteonModelSelected. - Observação:
capabilitiesdo runtime do provider é um metadado compartilhado do executor (família de provider, particularidades de transcrição/ferramentas, dicas de transporte/cache). Não é o mesmo que o modelo público de capacidades, que descreve o que um plugin registra (inferência de texto, fala etc.).
Comportamento de provider de propriedade do plugin
Plugins de provider agora podem ser proprietários da maior parte da lógica específica do provider, enquanto o OpenClaw mantém o loop genérico de inferência. Divisão típica:auth[].run/auth[].runNonInteractive: o provider é proprietário dos fluxos de onboarding/login paraopenclaw onboard,openclaw models authe configuração headlesswizard.setup/wizard.modelPicker: o provider é proprietário dos rótulos de escolha de autenticação, aliases legados, dicas de allowlist no onboarding e entradas de configuração nos seletores de onboarding/modelocatalog: o provider aparece emmodels.providersnormalizeModelId: o provider normaliza IDs de modelo legados/preview antes da busca ou canonizaçãonormalizeTransport: o provider normaliza a família de transporteapi/baseUrlantes da montagem genérica do modelo; o OpenClaw verifica primeiro o provider correspondente e depois outros plugins de provider com suporte a hook até que um realmente altere o transportenormalizeConfig: o provider normaliza a configuraçãomodels.providers.<id>antes de o runtime usá-la; o OpenClaw verifica primeiro o provider correspondente e depois outros plugins de provider com suporte a hook até que um realmente altere a configuração. Se nenhum hook de provider reescrever a configuração, os auxiliares incluídos da família Google ainda normalizam entradas compatíveis de providers Google.applyNativeStreamingUsageCompat: o provider aplica reescritas de compatibilidade de uso de streaming nativo orientadas por endpoint para providers de configresolveConfigApiKey: o provider resolve autenticação de marcador env para providers de config sem forçar o carregamento completo da autenticação de runtime.amazon-bedrocktambém tem um resolvedor integrado de marcador AWS env aqui, embora a autenticação de runtime do Bedrock use a cadeia padrão do SDK da AWS.resolveSyntheticAuth: o provider pode expor disponibilidade de autenticação local/auto-hospedada ou outra autenticação baseada em config sem persistir segredos em texto simplesshouldDeferSyntheticProfileAuth: o provider pode marcar placeholders sintéticos armazenados de perfil como de menor precedência do que autenticação com suporte de env/configresolveDynamicModel: o provider aceita IDs de modelo que ainda não estão presentes no catálogo estático localprepareDynamicModel: o provider precisa de atualização de metadados antes de tentar novamente a resolução dinâmicanormalizeResolvedModel: o provider precisa de reescritas de transporte ou base URLcontributeResolvedModelCompat: o provider contribui com flags de compatibilidade para seus modelos do fornecedor mesmo quando chegam por outro transporte compatívelcapabilities: o provider publica particularidades de transcrição/ferramentas/família do providernormalizeToolSchemas: o provider limpa schemas de ferramentas antes que o executor incorporado os vejainspectToolSchemas: o provider expõe avisos de schema específicos do transporte após a normalizaçãoresolveReasoningOutputMode: o provider escolhe contratos nativos vs marcados de saída de raciocínioprepareExtraParams: o provider define padrões ou normaliza parâmetros de requisição por modelocreateStreamFn: o provider substitui o caminho normal de stream por um transporte totalmente personalizadowrapStreamFn: o provider aplica wrappers de compatibilidade para cabeçalhos/corpo/modelo da requisiçãoresolveTransportTurnState: o provider fornece cabeçalhos nativos ou metadados do transporte por turnoresolveWebSocketSessionPolicy: o provider fornece cabeçalhos nativos de sessão WebSocket ou política de cooldown de sessãocreateEmbeddingProvider: o provider é proprietário do comportamento de embedding de memória quando ele pertence ao plugin do provider em vez do switchboard central de embeddingformatApiKey: o provider formata perfis de autenticação armazenados na stringapiKeyesperada pelo transporte em runtimerefreshOAuth: o provider é proprietário da renovação de OAuth quando os renovadores compartilhadospi-ainão são suficientesbuildAuthDoctorHint: o provider acrescenta orientação de reparo quando a renovação de OAuth falhamatchesContextOverflowError: o provider reconhece erros de estouro de janela de contexto específicos do provider que heurísticas genéricas deixariam passarclassifyFailoverReason: o provider mapeia erros brutos específicos do provider de transporte/API para motivos de failover como rate limit ou sobrecargaisCacheTtlEligible: o provider decide quais IDs de modelo upstream oferecem suporte a TTL de cache de promptbuildMissingAuthMessage: o provider substitui a mensagem genérica de erro do armazenamento de autenticação por uma dica de recuperação específica do providersuppressBuiltInModel: o provider oculta linhas upstream obsoletas e pode retornar um erro de propriedade do fornecedor para falhas de resolução diretaaugmentModelCatalog: o provider acrescenta linhas sintéticas/finais de catálogo após descoberta e mesclagem de configisBinaryThinking: o provider é proprietário da UX binária de pensamento ligado/desligadosupportsXHighThinking: o provider inclui modelos selecionados emxhighresolveDefaultThinkingLevel: o provider é proprietário da política padrão de/thinkpara uma família de modelosapplyConfigDefaults: o provider aplica padrões globais específicos do provider durante a materialização da config com base no modo de autenticação, env ou família de modeloisModernModelRef: o provider é proprietário da correspondência de modelo preferido em live/smokeprepareRuntimeAuth: o provider transforma uma credencial configurada em um token de runtime de curta duraçãoresolveUsageAuth: o provider resolve credenciais de uso/cota para/usagee superfícies relacionadas de status/relatóriofetchUsageSnapshot: o provider é proprietário da busca/análise do endpoint de uso enquanto o core ainda é proprietário da estrutura de resumo e da formataçãoonModelSelected: o provider executa efeitos colaterais pós-seleção, como telemetria ou bookkeeping de sessão de propriedade do provider
anthropic: fallback de compatibilidade futura para Claude 4.6, dicas de reparo de autenticação, busca de endpoint de uso, metadados de TTL de cache/família de provider e padrões globais de config sensíveis à autenticaçãoamazon-bedrock: correspondência de estouro de contexto e classificação de motivo de failover de propriedade do provider para erros específicos do Bedrock de throttle/not-ready, além da família compartilhada de replayanthropic-by-modelpara guardas de política de replay apenas para Claude em tráfego Anthropicanthropic-vertex: guardas de política de replay apenas para Claude em tráfego de mensagens Anthropicopenrouter: IDs de modelo pass-through, wrappers de requisição, dicas de capacidade de provider, sanitização de assinatura de pensamento Gemini em tráfego Gemini via proxy, injeção de raciocínio via proxy pela família de streamopenrouter-thinking, encaminhamento de metadados de roteamento e política de TTL de cachegithub-copilot: onboarding/login do dispositivo, fallback de compatibilidade futura de modelo, dicas de transcrição de pensamento Claude, troca de token em runtime e busca de endpoint de usoopenai: fallback de compatibilidade futura para GPT-5.4, normalização direta de transporte OpenAI, dicas de autenticação ausente com reconhecimento de Codex, supressão de Spark, linhas sintéticas de catálogo OpenAI/Codex, política de thinking/live-model, normalização de aliases de token de uso (input/outpute famíliasprompt/completion), a família compartilhada de streamopenai-responses-defaultspara wrappers nativos OpenAI/Codex e metadados de família de providergoogleegoogle-gemini-cli: fallback de compatibilidade futura para Gemini 3.1, validação nativa de replay Gemini, sanitização de replay bootstrap, modo de saída de raciocínio com marcação e correspondência de modelo moderno; o OAuth do Gemini CLI também é proprietário da formatação de token de perfil de autenticação, análise de token de uso e busca de endpoint de cota para superfícies de usomoonshot: transporte compartilhado, normalização de payload de thinking de propriedade do pluginkilocode: transporte compartilhado, cabeçalhos de requisição de propriedade do plugin, normalização de payload de raciocínio, sanitização de assinatura de pensamento Gemini via proxy e política de TTL de cachezai: fallback de compatibilidade futura para GLM-5, padrõestool_stream, política de TTL de cache, política de binary-thinking/live-model e autenticação de uso + busca de cota; IDs desconhecidosglm-5*são sintetizados a partir do modelo incluídoglm-4.7xai: normalização nativa do transporte Responses, reescritas de alias/fastpara variantes rápidas do Grok, padrãotool_streame limpeza específica do xAI de schema de ferramenta / payload de raciocíniomistral: metadados de capacidade de propriedade do pluginopencodeeopencode-go: metadados de capacidade de propriedade do plugin mais sanitização de assinatura de pensamento Gemini via proxybyteplus,cloudflare-ai-gateway,huggingface,kimi,nvidia,qianfan,stepfun,synthetic,together,venice,vercel-ai-gatewayevolcengine: apenas catálogos de propriedade do pluginqwen: catálogos de propriedade do plugin para modelos de texto mais registros compartilhados de provider para media-understanding e geração de vídeo em suas superfícies multimodais; a geração de vídeo do Qwen usa os endpoints padrão de vídeo DashScope com modelos Wan incluídos, comowan2.6-t2vewan2.7-r2vminimax: catálogos de propriedade do plugin, seleção híbrida de política de replay Anthropic/OpenAI e lógica de autenticação/snapshot de usoxiaomi: catálogos de propriedade do plugin mais lógica de autenticação/snapshot de uso
openai agora é proprietário de ambos os IDs de provider: openai e
openai-codex.
Isso cobre providers que ainda se encaixam nos transportes normais do OpenClaw. Um provider
que precisa de um executor de requisição totalmente personalizado é uma superfície de extensão
separada e mais profunda.
Rotação de API key
- Oferece suporte a rotação genérica de provider para providers selecionados.
- Configure várias chaves via:
OPENCLAW_LIVE_<PROVIDER>_KEY(substituição live única, prioridade mais alta)<PROVIDER>_API_KEYS(lista separada por vírgula ou ponto e vírgula)<PROVIDER>_API_KEY(chave primária)<PROVIDER>_API_KEY_*(lista numerada, por exemplo<PROVIDER>_API_KEY_1)
- Para providers Google,
GOOGLE_API_KEYtambém é incluída como fallback. - A ordem de seleção de chaves preserva a prioridade e remove valores duplicados.
- As requisições são repetidas com a próxima chave apenas em respostas de rate limit (por
exemplo
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededou mensagens periódicas de limite de uso). - Falhas que não sejam de rate limit falham imediatamente; nenhuma rotação de chave é tentada.
- Quando todas as chaves candidatas falham, o erro final é retornado a partir da última tentativa.
Providers integrados (catálogo pi-ai)
O OpenClaw vem com o catálogo pi-ai. Esses providers não exigem configuração emmodels.providers; basta definir a autenticação + escolher um modelo.
OpenAI
- Provider:
openai - Auth:
OPENAI_API_KEY - Rotação opcional:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, maisOPENCLAW_LIVE_OPENAI_KEY(substituição única) - Modelos de exemplo:
openai/gpt-5.4,openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - O transporte padrão é
auto(WebSocket primeiro, fallback para SSE) - Substitua por modelo via
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"ou"auto") - O warm-up do WebSocket do OpenAI Responses vem ativado por padrão via
params.openaiWsWarmup(true/false) - O processamento prioritário da OpenAI pode ser ativado via
agents.defaults.models["openai/<model>"].params.serviceTier /fasteparams.fastModemapeiam requisições diretasopenai/*de Responses paraservice_tier=priorityemapi.openai.com- Use
params.serviceTierquando quiser uma camada explícita em vez do alternador compartilhado/fast - Cabeçalhos ocultos de atribuição do OpenClaw (
originator,version,User-Agent) se aplicam apenas ao tráfego nativo OpenAI paraapi.openai.com, não a proxies genéricos compatíveis com OpenAI - Rotas nativas OpenAI também mantêm
storede Responses, dicas de cache de prompt e modelagem de payload de compatibilidade de raciocínio da OpenAI; rotas via proxy não mantêm openai/gpt-5.3-codex-sparké intencionalmente suprimido no OpenClaw porque a API live da OpenAI o rejeita; Spark é tratado como apenas Codex
Anthropic
- Provider:
anthropic - Auth:
ANTHROPIC_API_KEY - Rotação opcional:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, maisOPENCLAW_LIVE_ANTHROPIC_KEY(substituição única) - Modelo de exemplo:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKeyouopenclaw onboard --auth-choice anthropic-cli - Requisições públicas diretas da Anthropic oferecem suporte ao alternador compartilhado
/fasteparams.fastMode, incluindo tráfego autenticado por API key e OAuth enviado paraapi.anthropic.com; o OpenClaw mapeia isso para Anthropicservice_tier(autovsstandard_only) - Observação de cobrança: a documentação pública do Claude Code da Anthropic ainda inclui o uso direto do Claude Code no terminal nos limites do plano Claude. Separadamente, a Anthropic notificou usuários do OpenClaw em 4 de abril de 2026 às 12:00 PM PT / 8:00 PM BST que o caminho OpenClaw com login Claude conta como uso de harness de terceiros e exige Extra Usage, cobrado separadamente da assinatura.
- O setup-token da Anthropic está disponível novamente como um caminho legado/manual do OpenClaw. Use-o esperando que a Anthropic informou aos usuários do OpenClaw que esse caminho exige Extra Usage.
OpenAI Code (Codex)
- Provider:
openai-codex - Auth: OAuth (ChatGPT)
- Modelo de exemplo:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexouopenclaw models auth login --provider openai-codex - O transporte padrão é
auto(WebSocket primeiro, fallback para SSE) - Substitua por modelo via
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"ou"auto") params.serviceTiertambém é encaminhado em requisições nativas Codex Responses (chatgpt.com/backend-api)- Cabeçalhos ocultos de atribuição do OpenClaw (
originator,version,User-Agent) são anexados apenas ao tráfego nativo Codex parachatgpt.com/backend-api, não a proxies genéricos compatíveis com OpenAI - Compartilha o mesmo alternador
/faste configuraçãoparams.fastModedeopenai/*direto; o OpenClaw mapeia isso paraservice_tier=priority openai-codex/gpt-5.3-codex-sparkcontinua disponível quando o catálogo OAuth do Codex o expõe; depende de entitlementopenai-codex/gpt-5.4mantémcontextWindow = 1050000nativo e umcontextTokens = 272000padrão em runtime; substitua o limite de runtime commodels.providers.openai-codex.models[].contextTokens- Observação de política: OAuth do OpenAI Codex é explicitamente compatível para ferramentas/fluxos de trabalho externos como o OpenClaw.
Outras opções hospedadas no estilo assinatura
- Qwen Cloud: superfície de provider Qwen Cloud mais mapeamento de endpoint Alibaba DashScope e Coding Plan
- MiniMax: OAuth do MiniMax Coding Plan ou acesso por API key
- GLM Models: Z.AI Coding Plan ou endpoints gerais de API
OpenCode
- Auth:
OPENCODE_API_KEY(ouOPENCODE_ZEN_API_KEY) - Provider de runtime Zen:
opencode - Provider de runtime Go:
opencode-go - Modelos de exemplo:
opencode/claude-opus-4-6,opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenouopenclaw onboard --auth-choice opencode-go
Google Gemini (API key)
- Provider:
google - Auth:
GEMINI_API_KEY - Rotação opcional:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, fallbackGOOGLE_API_KEYeOPENCLAW_LIVE_GEMINI_KEY(substituição única) - Modelos de exemplo:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Compatibilidade: configuração legada do OpenClaw usando
google/gemini-3.1-flash-previewé normalizada paragoogle/gemini-3-flash-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - Execuções diretas do Gemini também aceitam
agents.defaults.models["google/<model>"].params.cachedContent(ou o legadocached_content) para encaminhar um identificador nativo do providercachedContents/...; acertos de cache do Gemini aparecem comocacheReaddo OpenClaw
Google Vertex e Gemini CLI
- Providers:
google-vertex,google-gemini-cli - Auth: Vertex usa gcloud ADC; Gemini CLI usa seu fluxo OAuth
- Cuidado: o OAuth do Gemini CLI no OpenClaw é uma integração não oficial. Alguns usuários relataram restrições em contas Google após usar clientes de terceiros. Revise os termos do Google e use uma conta não crítica se optar por continuar.
- O OAuth do Gemini CLI é distribuído como parte do plugin incluído
google.- Instale o Gemini CLI primeiro:
brew install gemini-cli- ou
npm install -g @google/gemini-cli
- Ative:
openclaw plugins enable google - Login:
openclaw models auth login --provider google-gemini-cli --set-default - Modelo padrão:
google-gemini-cli/gemini-3.1-pro-preview - Observação: você não cola um client id nem secret em
openclaw.json. O fluxo de login da CLI armazena tokens em perfis de autenticação no host do gateway. - Se requisições falharem após o login, defina
GOOGLE_CLOUD_PROJECTouGOOGLE_CLOUD_PROJECT_IDno host do gateway. - Respostas JSON do Gemini CLI são analisadas a partir de
response; o uso recorre astats, comstats.cachednormalizado emcacheReaddo OpenClaw.
- Instale o Gemini CLI primeiro:
Z.AI (GLM)
- Provider:
zai - Auth:
ZAI_API_KEY - Modelo de exemplo:
zai/glm-5 - CLI:
openclaw onboard --auth-choice zai-api-key- Aliases:
z.ai/*ez-ai/*são normalizados parazai/* zai-api-keydetecta automaticamente o endpoint Z.AI correspondente;zai-coding-global,zai-coding-cn,zai-globalezai-cnforçam uma superfície específica
- Aliases:
Vercel AI Gateway
- Provider:
vercel-ai-gateway - Auth:
AI_GATEWAY_API_KEY - Modelo de exemplo:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Provider:
kilocode - Auth:
KILOCODE_API_KEY - Modelo de exemplo:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - Base URL:
https://api.kilo.ai/api/gateway/ - O catálogo estático de fallback inclui
kilocode/kilo/auto; a descoberta live emhttps://api.kilo.ai/api/gateway/modelspode expandir ainda mais o catálogo em runtime. - O roteamento upstream exato por trás de
kilocode/kilo/autoé de propriedade do Kilo Gateway, não codificado rigidamente no OpenClaw.
Outros plugins de provider incluídos
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - Modelo de exemplo:
openrouter/auto - O OpenClaw aplica os cabeçalhos documentados de atribuição de app do OpenRouter apenas quando
a requisição realmente tem como destino
openrouter.ai - Marcadores específicos do OpenRouter de
cache_controlda Anthropic também são restritos a rotas OpenRouter verificadas, não a URLs de proxy arbitrárias - O OpenRouter permanece no caminho em estilo proxy compatível com OpenAI, então modelagem de requisição exclusivamente nativa OpenAI (
serviceTier,storede Responses, dicas de cache de prompt, payloads de compatibilidade de raciocínio OpenAI) não é encaminhada - Referências OpenRouter com suporte Gemini mantêm apenas a sanitização de assinatura de pensamento Gemini via proxy; validação nativa de replay Gemini e reescritas bootstrap continuam desativadas
- Kilo Gateway:
kilocode(KILOCODE_API_KEY) - Modelo de exemplo:
kilocode/kilo/auto - Referências Kilo com suporte Gemini mantêm o mesmo caminho de sanitização de assinatura
de pensamento Gemini via proxy;
kilocode/kilo/autoe outras dicas sem suporte a raciocínio por proxy ignoram a injeção de raciocínio por proxy - MiniMax:
minimax(API key) eminimax-portal(OAuth) - Auth:
MINIMAX_API_KEYparaminimax;MINIMAX_OAUTH_TOKENouMINIMAX_API_KEYparaminimax-portal - Modelo de exemplo:
minimax/MiniMax-M2.7ouminimax-portal/MiniMax-M2.7 - O onboarding/configuração por API key do MiniMax grava definições explícitas do modelo M2.7 com
input: ["text", "image"]; o catálogo incluído do provider mantém as referências de chat apenas texto até que essa configuração do provider seja materializada - Moonshot:
moonshot(MOONSHOT_API_KEY) - Modelo de exemplo:
moonshot/kimi-k2.5 - Kimi Coding:
kimi(KIMI_API_KEYouKIMICODE_API_KEY) - Modelo de exemplo:
kimi/kimi-code - Qianfan:
qianfan(QIANFAN_API_KEY) - Modelo de exemplo:
qianfan/deepseek-v3.2 - Qwen Cloud:
qwen(QWEN_API_KEY,MODELSTUDIO_API_KEYouDASHSCOPE_API_KEY) - Modelo de exemplo:
qwen/qwen3.5-plus - NVIDIA:
nvidia(NVIDIA_API_KEY) - Modelo de exemplo:
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun:
stepfun/stepfun-plan(STEPFUN_API_KEY) - Modelos de exemplo:
stepfun/step-3.5-flash,stepfun-plan/step-3.5-flash-2603 - Together:
together(TOGETHER_API_KEY) - Modelo de exemplo:
together/moonshotai/Kimi-K2.5 - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - Modelo de exemplo:
xiaomi/mimo-v2-flash - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENouHF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine:
volcengine(VOLCANO_ENGINE_API_KEY) - Modelo de exemplo:
volcengine-plan/ark-code-latest - BytePlus:
byteplus(BYTEPLUS_API_KEY) - Modelo de exemplo:
byteplus-plan/ark-code-latest - xAI:
xai(XAI_API_KEY)- Requisições xAI nativas incluídas usam o caminho xAI Responses
/fastouparams.fastMode: truereescrevemgrok-3,grok-3-mini,grok-4egrok-4-0709para suas variantes*-fasttool_streamvem ativado por padrão; definaagents.defaults.models["xai/<model>"].params.tool_streamcomofalsepara desativá-lo
- Mistral:
mistral(MISTRAL_API_KEY) - Modelo de exemplo:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- Modelos GLM no Cerebras usam IDs
zai-glm-4.7ezai-glm-4.6. - Base URL compatível com OpenAI:
https://api.cerebras.ai/v1.
- Modelos GLM no Cerebras usam IDs
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Modelo de exemplo do Hugging Face Inference:
huggingface/deepseek-ai/DeepSeek-R1; CLI:openclaw onboard --auth-choice huggingface-api-key. Consulte Hugging Face (Inference).
Providers via models.providers (personalizado/base URL)
Use models.providers (ou models.json) para adicionar providers personalizados ou
proxies compatíveis com OpenAI/Anthropic.
Muitos dos plugins de provider incluídos abaixo já publicam um catálogo padrão.
Use entradas explícitas models.providers.<id> apenas quando quiser substituir a
base URL, os cabeçalhos ou a lista de modelos padrão.
Moonshot AI (Kimi)
A Moonshot é distribuída como um plugin de provider incluído. Use o provider integrado por padrão e adicione uma entrada explícitamodels.providers.moonshot apenas quando
precisar substituir a base URL ou metadados do modelo:
- Provider:
moonshot - Auth:
MOONSHOT_API_KEY - Modelo de exemplo:
moonshot/kimi-k2.5 - CLI:
openclaw onboard --auth-choice moonshot-api-keyouopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
O Kimi Coding usa o endpoint compatível com Anthropic da Moonshot AI:- Provider:
kimi - Auth:
KIMI_API_KEY - Modelo de exemplo:
kimi/kimi-code
kimi/k2p5 continua aceito como ID de modelo de compatibilidade.
Volcano Engine (Doubao)
A Volcano Engine (火山引擎) oferece acesso ao Doubao e outros modelos na China.- Provider:
volcengine(coding:volcengine-plan) - Auth:
VOLCANO_ENGINE_API_KEY - Modelo de exemplo:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/*
é registrado ao mesmo tempo.
Nos seletores de modelo de onboarding/configuração, a escolha de autenticação da Volcengine prefere ambos
os conjuntos volcengine/* e volcengine-plan/*. Se esses modelos ainda não estiverem carregados,
o OpenClaw recorre ao catálogo sem filtro em vez de mostrar um seletor vazio
com escopo de provider.
Modelos disponíveis:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (Internacional)
O BytePlus ARK oferece acesso aos mesmos modelos da Volcano Engine para usuários internacionais.- Provider:
byteplus(coding:byteplus-plan) - Auth:
BYTEPLUS_API_KEY - Modelo de exemplo:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/*
é registrado ao mesmo tempo.
Nos seletores de modelo de onboarding/configuração, a escolha de autenticação do BytePlus prefere ambos
os conjuntos byteplus/* e byteplus-plan/*. Se esses modelos ainda não estiverem carregados,
o OpenClaw recorre ao catálogo sem filtro em vez de mostrar um seletor vazio
com escopo de provider.
Modelos disponíveis:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
A Synthetic fornece modelos compatíveis com Anthropic por trás do providersynthetic:
- Provider:
synthetic - Auth:
SYNTHETIC_API_KEY - Modelo de exemplo:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
O MiniMax é configurado viamodels.providers porque usa endpoints personalizados:
- MiniMax OAuth (Global):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - MiniMax API key (Global):
--auth-choice minimax-global-api - MiniMax API key (CN):
--auth-choice minimax-cn-api - Auth:
MINIMAX_API_KEYparaminimax;MINIMAX_OAUTH_TOKENouMINIMAX_API_KEYparaminimax-portal
/fast on reescreve
MiniMax-M2.7 para MiniMax-M2.7-highspeed.
Divisão de capacidades de propriedade do plugin:
- Padrões de texto/chat permanecem em
minimax/MiniMax-M2.7 - A geração de imagem é
minimax/image-01ouminimax-portal/image-01 - A compreensão de imagem é
MiniMax-VL-01de propriedade do plugin em ambos os caminhos de autenticação MiniMax - A busca na web permanece no ID de provider
minimax
Ollama
O Ollama é distribuído como um plugin de provider incluído e usa a API nativa do Ollama:- Provider:
ollama - Auth: nenhuma necessária (servidor local)
- Modelo de exemplo:
ollama/llama3.3 - Instalação: https://ollama.com/download
http://127.0.0.1:11434 quando você faz opt-in com
OLLAMA_API_KEY, e o plugin de provider incluído adiciona o Ollama diretamente ao
openclaw onboard e ao seletor de modelos. Consulte /providers/ollama
para onboarding, modo cloud/local e configuração personalizada.
vLLM
O vLLM é distribuído como um plugin de provider incluído para servidores locais/auto-hospedados compatíveis com OpenAI:- Provider:
vllm - Auth: opcional (depende do seu servidor)
- Base URL padrão:
http://127.0.0.1:8000/v1
/v1/models):
SGLang
O SGLang é distribuído como um plugin de provider incluído para servidores auto-hospedados rápidos compatíveis com OpenAI:- Provider:
sglang - Auth: opcional (depende do seu servidor)
- Base URL padrão:
http://127.0.0.1:30000/v1
/v1/models):
Proxies locais (LM Studio, vLLM, LiteLLM etc.)
Exemplo (compatível com OpenAI):- Para providers personalizados,
reasoning,input,cost,contextWindowemaxTokenssão opcionais. Quando omitidos, o OpenClaw usa como padrão:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Recomendado: defina valores explícitos que correspondam aos limites do seu proxy/modelo.
- Para
api: "openai-completions"em endpoints não nativos (qualquerbaseUrlnão vazio cujo host não sejaapi.openai.com), o OpenClaw forçacompat.supportsDeveloperRole: falsepara evitar erros 400 do provider por papéisdevelopersem suporte. - Rotas em estilo proxy compatíveis com OpenAI também ignoram modelagem de requisição exclusivamente nativa OpenAI: sem
service_tier, semstorede Responses, sem dicas de cache de prompt, sem modelagem de payload de compatibilidade de raciocínio OpenAI e sem cabeçalhos ocultos de atribuição do OpenClaw. - Se
baseUrlestiver vazio/omitido, o OpenClaw mantém o comportamento padrão da OpenAI (que resolve paraapi.openai.com). - Por segurança, um
compat.supportsDeveloperRole: trueexplícito ainda é sobrescrito em endpoints não nativosopenai-completions.
Exemplos de CLI
Relacionado
- Models — configuração de modelo e aliases
- Model Failover — cadeias de fallback e comportamento de retry
- Configuration Reference — chaves de configuração de modelo
- Providers — guias de configuração por provider