Provedores de modelos
Esta página cobre provedores de LLM/modelos (não canais de chat como WhatsApp/Telegram). Para regras de seleção de modelos, consulte /concepts/models.Regras rápidas
- As referências de modelo usam
provider/model(exemplo:opencode/claude-opus-4-6). - Se você definir
agents.defaults.models, isso se tornará a lista de permissão. - Auxiliares de CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. - As regras de runtime de fallback, sondas de cooldown e persistência de sobrescrita de sessão estão documentadas em /concepts/model-failover.
models.providers.*.models[].contextWindowsão metadados nativos do modelo;models.providers.*.models[].contextTokensé o limite efetivo de runtime.- Plugins de provedor podem injetar catálogos de modelos via
registerProvider({ catalog }); o OpenClaw mescla essa saída emmodels.providersantes de gravarmodels.json. - Manifestos de provedor podem declarar
providerAuthEnvVarseproviderAuthAliasespara que sondas genéricas de autenticação baseadas em variáveis de ambiente e variantes de provedor não precisem carregar o runtime do plugin. O mapeamento restante de variáveis de ambiente do core agora existe apenas para provedores não baseados em plugin/do core e alguns casos genéricos de precedência, como onboarding com chave de API Anthropic primeiro. - Plugins de provedor também podem controlar o comportamento de runtime do provedor por meio de
normalizeModelId,normalizeTransport,normalizeConfig,applyNativeStreamingUsageCompat,resolveConfigApiKey,resolveSyntheticAuth,shouldDeferSyntheticProfileAuth,resolveDynamicModel,prepareDynamicModel,normalizeResolvedModel,contributeResolvedModelCompat,capabilities,normalizeToolSchemas,inspectToolSchemas,resolveReasoningOutputMode,prepareExtraParams,createStreamFn,wrapStreamFn,resolveTransportTurnState,resolveWebSocketSessionPolicy,createEmbeddingProvider,formatApiKey,refreshOAuth,buildAuthDoctorHint,matchesContextOverflowError,classifyFailoverReason,isCacheTtlEligible,buildMissingAuthMessage,suppressBuiltInModel,augmentModelCatalog,isBinaryThinking,supportsXHighThinking,resolveDefaultThinkingLevel,applyConfigDefaults,isModernModelRef,prepareRuntimeAuth,resolveUsageAuth,fetchUsageSnapshot, eonModelSelected. - Observação:
capabilitiesdo runtime do provedor são metadados compartilhados do runner (família do provedor, particularidades de transcrição/ferramentas, dicas de transporte/cache). Isso não é o mesmo que o modelo de capacidade pública, que descreve o que um plugin registra (inferência de texto, fala etc.). - O provedor
codexincluído vem emparelhado com o harness de agente Codex incluído. Usecodex/gpt-*quando quiser login controlado pelo Codex, descoberta de modelos, retomada nativa de thread e execução no servidor do app. Referências simplesopenai/gpt-*continuam usando o provedor OpenAI e o transporte normal de provedor do OpenClaw. Implantações somente com Codex podem desativar o fallback automático para PI comagents.defaults.embeddedHarness.fallback: "none"; consulte Codex Harness.
Comportamento de provedor controlado por plugin
Os plugins de provedor agora podem controlar a maior parte da lógica específica de provedor, enquanto o OpenClaw mantém o loop genérico de inferência. Divisão típica:auth[].run/auth[].runNonInteractive: o provedor controla os fluxos de onboarding/login paraopenclaw onboard,openclaw models authe configuração sem interfacewizard.setup/wizard.modelPicker: o provedor controla os rótulos de escolha de autenticação, aliases legados, dicas de lista de permissão no onboarding e entradas de configuração nos seletores de onboarding/modelocatalog: o provedor aparece emmodels.providersnormalizeModelId: o provedor normaliza IDs de modelo legados/preview antes da busca ou canonicalizaçãonormalizeTransport: o provedor normalizaapi/baseUrlda família de transporte antes da montagem genérica do modelo; o OpenClaw verifica primeiro o provedor correspondente, depois outros plugins de provedor com suporte a hook até que um realmente altere o transportenormalizeConfig: o provedor normaliza a configuraçãomodels.providers.<id>antes de o runtime usá-la; o OpenClaw verifica primeiro o provedor correspondente, depois outros plugins de provedor com suporte a hook até que um realmente altere a configuração. Se nenhum hook de provedor reescrever a configuração, os auxiliares incluídos da família Google ainda normalizam entradas compatíveis de provedor Google.applyNativeStreamingUsageCompat: o provedor aplica reescritas de compatibilidade de uso de streaming nativo orientadas por endpoint para provedores de configuraçãoresolveConfigApiKey: o provedor resolve autenticação por marcador de ambiente para provedores de configuração sem forçar o carregamento completo da autenticação de runtime.amazon-bedrocktambém tem um resolvedor embutido de marcador de ambiente AWS aqui, embora a autenticação de runtime do Bedrock use a cadeia padrão do SDK da AWS.resolveSyntheticAuth: o provedor pode expor disponibilidade de autenticação local/self-hosted ou outra autenticação baseada em configuração sem persistir segredos em texto puroshouldDeferSyntheticProfileAuth: o provedor pode marcar placeholders sintéticos de perfil armazenados como de precedência inferior à autenticação baseada em ambiente/configuraçãoresolveDynamicModel: o provedor aceita IDs de modelo que ainda não estão presentes no catálogo estático localprepareDynamicModel: o provedor precisa de uma atualização de metadados antes de tentar novamente a resolução dinâmicanormalizeResolvedModel: o provedor precisa de reescritas de transporte ou base URLcontributeResolvedModelCompat: o provedor contribui com sinalizadores de compatibilidade para seus modelos do fornecedor mesmo quando eles chegam por outro transporte compatívelcapabilities: o provedor publica particularidades de transcrição/ferramentas/família de provedornormalizeToolSchemas: o provedor limpa esquemas de ferramentas antes que o runner embutido os vejainspectToolSchemas: o provedor expõe avisos de esquema específicos de transporte após a normalizaçãoresolveReasoningOutputMode: o provedor escolhe contratos de saída de raciocínio nativos vs marcadosprepareExtraParams: o provedor define padrões ou normaliza parâmetros de requisição por modelocreateStreamFn: o provedor substitui o caminho normal de stream por um transporte totalmente personalizadowrapStreamFn: o provedor aplica wrappers de compatibilidade de cabeçalhos/corpo/modelo da requisiçãoresolveTransportTurnState: o provedor fornece cabeçalhos ou metadados nativos de transporte por turnoresolveWebSocketSessionPolicy: o provedor fornece cabeçalhos nativos de sessão WebSocket ou política de cooldown da sessãocreateEmbeddingProvider: o provedor controla o comportamento de embeddings de memória quando isso pertence ao plugin do provedor em vez do comutador central de embeddings do coreformatApiKey: o provedor formata perfis de autenticação armazenados na stringapiKeyde runtime esperada pelo transporterefreshOAuth: o provedor controla a atualização de OAuth quando os atualizadores compartilhados depi-ainão são suficientesbuildAuthDoctorHint: o provedor acrescenta orientação de correção quando a atualização de OAuth falhamatchesContextOverflowError: o provedor reconhece erros de estouro de janela de contexto específicos do provedor que heurísticas genéricas não detectariamclassifyFailoverReason: o provedor mapeia erros brutos específicos do provedor, de transporte/API, para motivos de failover, como limite de taxa ou sobrecargaisCacheTtlEligible: o provedor decide quais IDs de modelo upstream oferecem suporte a TTL de cache de promptbuildMissingAuthMessage: o provedor substitui o erro genérico do armazenamento de autenticação por uma dica de recuperação específica do provedorsuppressBuiltInModel: o provedor oculta linhas upstream desatualizadas e pode retornar um erro controlado pelo fornecedor para falhas de resolução diretaaugmentModelCatalog: o provedor acrescenta linhas sintéticas/finais ao catálogo após descoberta e mesclagem de configuraçãoisBinaryThinking: o provedor controla a UX binária de pensamento ligado/desligadosupportsXHighThinking: o provedor habilitaxhighem modelos selecionadosresolveDefaultThinkingLevel: o provedor controla a política padrão de/thinkpara uma família de modelosapplyConfigDefaults: o provedor aplica padrões globais específicos do provedor durante a materialização da configuração com base no modo de autenticação, ambiente ou família de modelosisModernModelRef: o provedor controla a correspondência de modelo preferido em live/smokeprepareRuntimeAuth: o provedor transforma uma credencial configurada em um token de runtime de curta duraçãoresolveUsageAuth: o provedor resolve credenciais de uso/cota para/usagee superfícies relacionadas de status/relatóriosfetchUsageSnapshot: o provedor controla a busca/análise do endpoint de uso enquanto o core ainda controla o shell de resumo e a formataçãoonModelSelected: o provedor executa efeitos colaterais após a seleção do modelo, como telemetria ou bookkeeping de sessão controlado pelo provedor
anthropic: fallback de compatibilidade futura para Claude 4.6, dicas de reparo de autenticação, busca de endpoint de uso, metadados de TTL de cache/família de provedor e padrões globais de configuração com reconhecimento de autenticaçãoamazon-bedrock: correspondência de overflow de contexto controlada pelo provedor e classificação de motivo de failover para erros específicos do Bedrock de throttle/não pronto, além da família compartilhada de replayanthropic-by-modelpara proteções de política de replay apenas para Claude em tráfego Anthropicanthropic-vertex: proteções de política de replay apenas para Claude em tráfego de mensagens Anthropicopenrouter: IDs de modelo pass-through, wrappers de requisição, dicas de capacidade do provedor, sanitização de assinatura de pensamento Gemini em tráfego Gemini por proxy, injeção de raciocínio por proxy por meio da família de streamopenrouter-thinking, encaminhamento de metadados de roteamento e política de TTL de cachegithub-copilot: onboarding/login por dispositivo, fallback de modelo com compatibilidade futura, dicas de transcrição de pensamento Claude, troca de token de runtime e busca de endpoint de usoopenai: fallback de compatibilidade futura para GPT-5.4, normalização direta de transporte OpenAI, dicas de autenticação ausente com reconhecimento de Codex, supressão de Spark, linhas sintéticas de catálogo OpenAI/Codex, política de thinking/modelo live, normalização de aliases de token de uso (input/outpute famíliasprompt/completion), a família compartilhada de streamopenai-responses-defaultspara wrappers nativos OpenAI/Codex, metadados de família de provedor, registro incluído de provedor de geração de imagem paragpt-image-1e registro incluído de provedor de geração de vídeo parasora-2googleegoogle-gemini-cli: fallback de compatibilidade futura para Gemini 3.1, validação nativa de replay Gemini, sanitização de replay de bootstrap, modo de saída de raciocínio com tags, correspondência de modelos modernos, registro incluído de provedor de geração de imagem para modelos Gemini image-preview e registro incluído de provedor de geração de vídeo para modelos Veo; o OAuth do Gemini CLI também controla a formatação de token de perfil de autenticação, a análise de token de uso e a busca de endpoint de cota para superfícies de usomoonshot: transporte compartilhado, normalização de payload de thinking controlada por pluginkilocode: transporte compartilhado, cabeçalhos de requisição controlados por plugin, normalização de payload de raciocínio, sanitização de assinatura de pensamento Gemini por proxy e política de TTL de cachezai: fallback de compatibilidade futura para GLM-5, padrões detool_stream, política de TTL de cache, política binária de thinking/modelo live e autenticação de uso + busca de cota; IDs desconhecidosglm-5*são sintetizados a partir do modelo incluídoglm-4.7xai: normalização nativa de transporte Responses, reescritas de alias/fastpara variantes rápidas do Grok,tool_streampadrão, limpeza específica do xAI de esquema de ferramenta / payload de raciocínio e registro incluído de provedor de geração de vídeo paragrok-imagine-videomistral: metadados de capacidade controlados por pluginopencodeeopencode-go: metadados de capacidade controlados por plugin, além de sanitização de assinatura de pensamento Gemini por proxyalibaba: catálogo de geração de vídeo controlado por plugin para referências diretas de modelo Wan, comoalibaba/wan2.6-t2vbyteplus: catálogos controlados por plugin, além de registro incluído de provedor de geração de vídeo para modelos Seedance de texto para vídeo/imagem para vídeofal: registro incluído de provedor de geração de vídeo para modelos de terceiros hospedados, registro de provedor de geração de imagem para modelos de imagem FLUX, além de registro incluído de provedor de geração de vídeo para modelos de vídeo de terceiros hospedadoscloudflare-ai-gateway,huggingface,kimi,nvidia,qianfan,stepfun,synthetic,venice,vercel-ai-gatewayevolcengine: apenas catálogos controlados por pluginqwen: catálogos controlados por plugin para modelos de texto, além de registros compartilhados de provedores de media-understanding e geração de vídeo para suas superfícies multimodais; a geração de vídeo do Qwen usa os endpoints padrão de vídeo do DashScope com modelos Wan incluídos, comowan2.6-t2vewan2.7-r2vrunway: registro de provedor de geração de vídeo controlado por plugin para modelos nativos do Runway baseados em tarefas, comogen4.5minimax: catálogos controlados por plugin, registro incluído de provedor de geração de vídeo para modelos de vídeo Hailuo, registro incluído de provedor de geração de imagem paraimage-01, seleção híbrida de política de replay Anthropic/OpenAI e lógica de autenticação/snapshot de usotogether: catálogos controlados por plugin, além de registro incluído de provedor de geração de vídeo para modelos de vídeo Wanxiaomi: catálogos controlados por plugin, além de lógica de autenticação/snapshot de uso
openai incluído agora controla ambos os IDs de provedor: openai e
openai-codex.
Isso cobre os provedores que ainda se encaixam nos transportes normais do OpenClaw. Um provedor
que precisa de um executor de requisição totalmente personalizado é uma superfície de extensão separada e mais profunda.
Rotação de chaves de API
- Oferece suporte à rotação genérica de provedor para provedores selecionados.
- Configure várias chaves por meio de:
OPENCLAW_LIVE_<PROVIDER>_KEY(sobrescrita live única, maior prioridade)<PROVIDER>_API_KEYS(lista separada por vírgula ou ponto e vírgula)<PROVIDER>_API_KEY(chave primária)<PROVIDER>_API_KEY_*(lista numerada, por exemplo<PROVIDER>_API_KEY_1)
- Para provedores Google,
GOOGLE_API_KEYtambém é incluída como fallback. - A ordem de seleção de chaves preserva a prioridade e remove valores duplicados.
- As requisições são repetidas com a próxima chave apenas em respostas de limite de taxa (por
exemplo
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededou mensagens periódicas de limite de uso). - Falhas que não sejam de limite de taxa falham imediatamente; nenhuma rotação de chave é tentada.
- Quando todas as chaves candidatas falham, o erro final da última tentativa é retornado.
Provedores integrados (catálogo pi-ai)
O OpenClaw é fornecido com o catálogo pi-ai. Esses provedores não exigem configuração emmodels.providers; basta definir a autenticação e escolher um modelo.
OpenAI
- Provedor:
openai - Autenticação:
OPENAI_API_KEY - Rotação opcional:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, além deOPENCLAW_LIVE_OPENAI_KEY(sobrescrita única) - Modelos de exemplo:
openai/gpt-5.4,openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - O transporte padrão é
auto(WebSocket primeiro, fallback para SSE) - Substitua por modelo via
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"ou"auto") - O warm-up de WebSocket do OpenAI Responses vem habilitado por padrão via
params.openaiWsWarmup(true/false) - O processamento prioritário da OpenAI pode ser habilitado via
agents.defaults.models["openai/<model>"].params.serviceTier /fasteparams.fastModemapeiam requisições diretasopenai/*de Responses paraservice_tier=priorityemapi.openai.com- Use
params.serviceTierquando quiser uma camada explícita em vez do alternador compartilhado/fast - Os cabeçalhos ocultos de atribuição do OpenClaw (
originator,version,User-Agent) se aplicam apenas ao tráfego OpenAI nativo paraapi.openai.com, não a proxies genéricos compatíveis com OpenAI - Rotas OpenAI nativas também mantêm
storedo Responses, dicas de cache de prompt e modelagem de payload de compatibilidade de raciocínio da OpenAI; rotas de proxy não openai/gpt-5.3-codex-sparké intencionalmente suprimido no OpenClaw porque a API live da OpenAI o rejeita; Spark é tratado como exclusivo do Codex
Anthropic
- Provedor:
anthropic - Autenticação:
ANTHROPIC_API_KEY - Rotação opcional:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, além deOPENCLAW_LIVE_ANTHROPIC_KEY(sobrescrita única) - Modelo de exemplo:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - Requisições públicas diretas da Anthropic também oferecem suporte ao alternador compartilhado
/fasteparams.fastMode, incluindo tráfego autenticado por chave de API e OAuth enviado paraapi.anthropic.com; o OpenClaw mapeia isso paraservice_tierda Anthropic (autovsstandard_only) - Observação sobre Anthropic: a equipe da Anthropic nos informou que o uso no estilo Claude CLI do OpenClaw é permitido novamente, então o OpenClaw trata a reutilização do Claude CLI e o uso de
claude -pcomo autorizados para esta integração, a menos que a Anthropic publique uma nova política. - O token de configuração da Anthropic continua disponível como um caminho de token compatível no OpenClaw, mas o OpenClaw agora prefere reutilização do Claude CLI e
claude -pquando disponíveis.
OpenAI Code (Codex)
- Provedor:
openai-codex - Autenticação: OAuth (ChatGPT)
- Modelo de exemplo:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexouopenclaw models auth login --provider openai-codex - O transporte padrão é
auto(WebSocket primeiro, fallback para SSE) - Substitua por modelo via
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"ou"auto") params.serviceTiertambém é encaminhado em requisições nativas Codex Responses (chatgpt.com/backend-api)- Os cabeçalhos ocultos de atribuição do OpenClaw (
originator,version,User-Agent) são anexados apenas ao tráfego Codex nativo parachatgpt.com/backend-api, não a proxies genéricos compatíveis com OpenAI - Compartilha o mesmo alternador
/faste a mesma configuraçãoparams.fastModedeopenai/*direto; o OpenClaw mapeia isso paraservice_tier=priority openai-codex/gpt-5.3-codex-sparkcontinua disponível quando o catálogo OAuth do Codex o expõe; depende do entitlementopenai-codex/gpt-5.4mantémcontextWindow = 1050000nativo e umcontextTokens = 272000padrão em runtime; substitua o limite de runtime commodels.providers.openai-codex.models[].contextTokens- Observação de política: o OAuth do OpenAI Codex é explicitamente compatível para ferramentas/fluxos de trabalho externos como o OpenClaw.
Outras opções hospedadas no estilo assinatura
- Qwen Cloud: superfície de provedor do Qwen Cloud, além de mapeamento de endpoint do Alibaba DashScope e Coding Plan
- MiniMax: acesso ao OAuth ou chave de API do MiniMax Coding Plan
- GLM Models: Z.AI Coding Plan ou endpoints gerais de API
OpenCode
- Autenticação:
OPENCODE_API_KEY(ouOPENCODE_ZEN_API_KEY) - Provedor de runtime Zen:
opencode - Provedor de runtime Go:
opencode-go - Modelos de exemplo:
opencode/claude-opus-4-6,opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenouopenclaw onboard --auth-choice opencode-go
Google Gemini (chave de API)
- Provedor:
google - Autenticação:
GEMINI_API_KEY - Rotação opcional:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, fallback paraGOOGLE_API_KEYeOPENCLAW_LIVE_GEMINI_KEY(sobrescrita única) - Modelos de exemplo:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Compatibilidade: configuração legada do OpenClaw usando
google/gemini-3.1-flash-previewé normalizada paragoogle/gemini-3-flash-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - Execuções diretas do Gemini também aceitam
agents.defaults.models["google/<model>"].params.cachedContent(ou o legadocached_content) para encaminhar um identificador nativo do provedorcachedContents/...; acertos de cache do Gemini aparecem comocacheReadno OpenClaw
Google Vertex e Gemini CLI
- Provedores:
google-vertex,google-gemini-cli - Autenticação: Vertex usa gcloud ADC; Gemini CLI usa seu fluxo OAuth
- Cuidado: o OAuth do Gemini CLI no OpenClaw é uma integração não oficial. Alguns usuários relataram restrições em contas Google após usar clientes de terceiros. Revise os termos do Google e use uma conta não crítica se optar por continuar.
- O OAuth do Gemini CLI é distribuído como parte do plugin
googleincluído.- Instale primeiro o Gemini CLI:
brew install gemini-cli- ou
npm install -g @google/gemini-cli
- Habilite:
openclaw plugins enable google - Login:
openclaw models auth login --provider google-gemini-cli --set-default - Modelo padrão:
google-gemini-cli/gemini-3-flash-preview - Observação: você não cola um client id nem um secret em
openclaw.json. O fluxo de login da CLI armazena tokens em perfis de autenticação no host do gateway. - Se as requisições falharem após o login, defina
GOOGLE_CLOUD_PROJECTouGOOGLE_CLOUD_PROJECT_IDno host do gateway. - Respostas JSON do Gemini CLI são analisadas a partir de
response; o uso recorre astats, comstats.cachednormalizado paracacheReadno OpenClaw.
- Instale primeiro o Gemini CLI:
Z.AI (GLM)
- Provedor:
zai - Autenticação:
ZAI_API_KEY - Modelo de exemplo:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- Aliases:
z.ai/*ez-ai/*são normalizados parazai/* zai-api-keydetecta automaticamente o endpoint correspondente da Z.AI;zai-coding-global,zai-coding-cn,zai-globalezai-cnforçam uma superfície específica
- Aliases:
Vercel AI Gateway
- Provedor:
vercel-ai-gateway - Autenticação:
AI_GATEWAY_API_KEY - Modelo de exemplo:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Provedor:
kilocode - Autenticação:
KILOCODE_API_KEY - Modelo de exemplo:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - Base URL:
https://api.kilo.ai/api/gateway/ - O catálogo estático de fallback inclui
kilocode/kilo/auto; a descoberta live emhttps://api.kilo.ai/api/gateway/modelspode expandir ainda mais o catálogo de runtime. - O roteamento upstream exato por trás de
kilocode/kilo/autoé controlado pelo Kilo Gateway, não codificado estaticamente no OpenClaw.
Outros plugins de provedor incluídos
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - Modelo de exemplo:
openrouter/auto - O OpenClaw aplica os cabeçalhos documentados de atribuição de app do OpenRouter apenas quando
a requisição realmente tem
openrouter.aicomo destino - Os marcadores
cache_controlespecíficos do OpenRouter para Anthropic também são restritos a rotas OpenRouter verificadas, não a URLs de proxy arbitrárias - O OpenRouter permanece no caminho no estilo proxy compatível com OpenAI, portanto
a modelagem de requisição exclusiva do OpenAI nativo (
serviceTier,storedo Responses, dicas de cache de prompt, payloads de compatibilidade de raciocínio da OpenAI) não é encaminhada - Referências OpenRouter baseadas em Gemini mantêm apenas a sanitização de assinatura de pensamento Gemini por proxy; a validação nativa de replay Gemini e reescritas de bootstrap continuam desativadas
- Kilo Gateway:
kilocode(KILOCODE_API_KEY) - Modelo de exemplo:
kilocode/kilo/auto - Referências Kilo baseadas em Gemini mantêm o mesmo caminho de sanitização de assinatura de pensamento Gemini por proxy;
kilocode/kilo/autoe outras dicas em que o raciocínio por proxy não é compatível ignoram a injeção de raciocínio por proxy - MiniMax:
minimax(chave de API) eminimax-portal(OAuth) - Autenticação:
MINIMAX_API_KEYparaminimax;MINIMAX_OAUTH_TOKENouMINIMAX_API_KEYparaminimax-portal - Modelo de exemplo:
minimax/MiniMax-M2.7ouminimax-portal/MiniMax-M2.7 - A configuração por onboarding/chave de API do MiniMax grava definições explícitas de modelo M2.7 com
input: ["text", "image"]; o catálogo do provedor incluído mantém as referências de chat apenas como texto até que a configuração desse provedor seja materializada - Moonshot:
moonshot(MOONSHOT_API_KEY) - Modelo de exemplo:
moonshot/kimi-k2.5 - Kimi Coding:
kimi(KIMI_API_KEYouKIMICODE_API_KEY) - Modelo de exemplo:
kimi/kimi-code - Qianfan:
qianfan(QIANFAN_API_KEY) - Modelo de exemplo:
qianfan/deepseek-v3.2 - Qwen Cloud:
qwen(QWEN_API_KEY,MODELSTUDIO_API_KEYouDASHSCOPE_API_KEY) - Modelo de exemplo:
qwen/qwen3.5-plus - NVIDIA:
nvidia(NVIDIA_API_KEY) - Modelo de exemplo:
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun:
stepfun/stepfun-plan(STEPFUN_API_KEY) - Modelos de exemplo:
stepfun/step-3.5-flash,stepfun-plan/step-3.5-flash-2603 - Together:
together(TOGETHER_API_KEY) - Modelo de exemplo:
together/moonshotai/Kimi-K2.5 - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - Modelo de exemplo:
xiaomi/mimo-v2-flash - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENouHF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine:
volcengine(VOLCANO_ENGINE_API_KEY) - Modelo de exemplo:
volcengine-plan/ark-code-latest - BytePlus:
byteplus(BYTEPLUS_API_KEY) - Modelo de exemplo:
byteplus-plan/ark-code-latest - xAI:
xai(XAI_API_KEY)- Requisições xAI nativas incluídas usam o caminho xAI Responses
/fastouparams.fastMode: truereescrevemgrok-3,grok-3-mini,grok-4egrok-4-0709para suas variantes*-fasttool_streamvem ativado por padrão; definaagents.defaults.models["xai/<model>"].params.tool_streamcomofalsepara desativá-lo
- Mistral:
mistral(MISTRAL_API_KEY) - Modelo de exemplo:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- Modelos GLM no Cerebras usam os IDs
zai-glm-4.7ezai-glm-4.6. - Base URL compatível com OpenAI:
https://api.cerebras.ai/v1.
- Modelos GLM no Cerebras usam os IDs
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Modelo de exemplo do Hugging Face Inference:
huggingface/deepseek-ai/DeepSeek-R1; CLI:openclaw onboard --auth-choice huggingface-api-key. Consulte Hugging Face (Inference).
Provedores via models.providers (base URL/personalizado)
Use models.providers (ou models.json) para adicionar provedores personalizados ou
proxies compatíveis com OpenAI/Anthropic.
Muitos dos plugins de provedor incluídos abaixo já publicam um catálogo padrão.
Use entradas explícitas em models.providers.<id> apenas quando quiser substituir
a base URL, os cabeçalhos ou a lista de modelos padrão.
Moonshot AI (Kimi)
O Moonshot é distribuído como um plugin de provedor incluído. Use o provedor integrado por padrão e adicione uma entrada explícitamodels.providers.moonshot apenas quando
precisar substituir a base URL ou os metadados do modelo:
- Provedor:
moonshot - Autenticação:
MOONSHOT_API_KEY - Modelo de exemplo:
moonshot/kimi-k2.5 - CLI:
openclaw onboard --auth-choice moonshot-api-keyouopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
O Kimi Coding usa o endpoint compatível com Anthropic da Moonshot AI:- Provedor:
kimi - Autenticação:
KIMI_API_KEY - Modelo de exemplo:
kimi/kimi-code
kimi/k2p5 continua aceito como ID de modelo de compatibilidade.
Volcano Engine (Doubao)
O Volcano Engine (火山引擎) fornece acesso ao Doubao e outros modelos na China.- Provedor:
volcengine(coding:volcengine-plan) - Autenticação:
VOLCANO_ENGINE_API_KEY - Modelo de exemplo:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/*
é registrado ao mesmo tempo.
Nos seletores de onboarding/configuração de modelo, a escolha de autenticação do Volcengine prefere linhas
volcengine/* e volcengine-plan/*. Se esses modelos ainda não tiverem sido carregados,
o OpenClaw recorre ao catálogo sem filtro em vez de mostrar um seletor vazio
com escopo de provedor.
Modelos disponíveis:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (internacional)
O BytePlus ARK fornece acesso aos mesmos modelos do Volcano Engine para usuários internacionais.- Provedor:
byteplus(coding:byteplus-plan) - Autenticação:
BYTEPLUS_API_KEY - Modelo de exemplo:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/*
é registrado ao mesmo tempo.
Nos seletores de onboarding/configuração de modelo, a escolha de autenticação do BytePlus prefere linhas
byteplus/* e byteplus-plan/*. Se esses modelos ainda não tiverem sido carregados,
o OpenClaw recorre ao catálogo sem filtro em vez de mostrar um seletor vazio
com escopo de provedor.
Modelos disponíveis:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
O Synthetic fornece modelos compatíveis com Anthropic por trás do provedorsynthetic:
- Provedor:
synthetic - Autenticação:
SYNTHETIC_API_KEY - Modelo de exemplo:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
O MiniMax é configurado viamodels.providers porque usa endpoints personalizados:
- MiniMax OAuth (Global):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - Chave de API MiniMax (Global):
--auth-choice minimax-global-api - Chave de API MiniMax (CN):
--auth-choice minimax-cn-api - Autenticação:
MINIMAX_API_KEYparaminimax;MINIMAX_OAUTH_TOKENouMINIMAX_API_KEYparaminimax-portal
/fast on reescreve
MiniMax-M2.7 para MiniMax-M2.7-highspeed.
Divisão de capacidade controlada por plugin:
- Os padrões de texto/chat permanecem em
minimax/MiniMax-M2.7 - A geração de imagem é
minimax/image-01ouminimax-portal/image-01 - O entendimento de imagem é
MiniMax-VL-01, controlado por plugin, em ambos os caminhos de autenticação MiniMax - A pesquisa na web permanece no ID de provedor
minimax
LM Studio
O LM Studio é distribuído como um plugin de provedor incluído que usa a API nativa:- Provedor:
lmstudio - Autenticação:
LM_API_TOKEN - Base URL padrão de inferência:
http://localhost:1234/v1
http://localhost:1234/api/v1/models):
/api/v1/models e /api/v1/models/load
para descoberta + carregamento automático, com /v1/chat/completions para inferência por padrão.
Consulte /providers/lmstudio para configuração e solução de problemas.
Ollama
O Ollama é distribuído como um plugin de provedor incluído e usa a API nativa do Ollama:- Provedor:
ollama - Autenticação: nenhuma necessária (servidor local)
- Modelo de exemplo:
ollama/llama3.3 - Instalação: https://ollama.com/download
http://127.0.0.1:11434 quando você ativa o uso com
OLLAMA_API_KEY, e o plugin de provedor incluído adiciona o Ollama diretamente ao
openclaw onboard e ao seletor de modelo. Consulte /providers/ollama
para onboarding, modo cloud/local e configuração personalizada.
vLLM
O vLLM é distribuído como um plugin de provedor incluído para servidores locais/self-hosted compatíveis com OpenAI:- Provedor:
vllm - Autenticação: opcional (depende do seu servidor)
- Base URL padrão:
http://127.0.0.1:8000/v1
/v1/models):
SGLang
O SGLang é distribuído como um plugin de provedor incluído para servidores self-hosted rápidos compatíveis com OpenAI:- Provedor:
sglang - Autenticação: opcional (depende do seu servidor)
- Base URL padrão:
http://127.0.0.1:30000/v1
/v1/models):
Proxies locais (LM Studio, vLLM, LiteLLM etc.)
Exemplo (compatível com OpenAI):- Para provedores personalizados,
reasoning,input,cost,contextWindowemaxTokenssão opcionais. Quando omitidos, o OpenClaw usa os seguintes padrões:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Recomendado: defina valores explícitos que correspondam aos limites do seu proxy/modelo.
- Para
api: "openai-completions"em endpoints não nativos (qualquerbaseUrlnão vazio cujo host não sejaapi.openai.com), o OpenClaw forçacompat.supportsDeveloperRole: falsepara evitar erros 400 do provedor por papéisdevelopernão compatíveis. - Rotas compatíveis com OpenAI no estilo proxy também ignoram a modelagem de requisição exclusiva do OpenAI nativo: sem
service_tier, semstoredo Responses, sem dicas de cache de prompt, sem modelagem de payload de compatibilidade de raciocínio da OpenAI e sem cabeçalhos ocultos de atribuição do OpenClaw. - Se
baseUrlestiver vazio/omitido, o OpenClaw mantém o comportamento padrão da OpenAI (que resolve paraapi.openai.com). - Por segurança, um
compat.supportsDeveloperRole: trueexplícito ainda é sobrescrito em endpointsopenai-completionsnão nativos.
Exemplos de CLI
Relacionado
- Models — configuração de modelos e aliases
- Model Failover — cadeias de fallback e comportamento de repetição
- Configuration Reference — chaves de configuração de modelo
- Providers — guias de configuração por provedor