Pular para o conteúdo principal
Perguntas e respostas sobre modelo e perfil de autenticação. Para configuração, sessões, gateway, canais e solução de problemas, consulte o FAQ principal.

Modelos: padrões, seleção, aliases, troca

O modelo padrão do OpenClaw é o que você definir em:
agents.defaults.model.primary
Os modelos são referenciados como provider/model (exemplo: openai/gpt-5.4 ou openai-codex/gpt-5.5). Se você omitir o provider, o OpenClaw primeiro tenta um alias, depois uma correspondência única de provider configurado para esse ID de modelo exato e só então recorre ao provider padrão configurado como um caminho de compatibilidade obsoleto. Se esse provider não expuser mais o modelo padrão configurado, o OpenClaw recorre ao primeiro provider/modelo configurado em vez de exibir um padrão obsoleto de provider removido. Ainda assim, você deve definir explicitamente provider/model.
Padrão recomendado: use o modelo mais forte da geração mais recente disponível na sua stack de providers. Para agentes com ferramentas habilitadas ou entrada não confiável: priorize a força do modelo em vez do custo. Para chat rotineiro/de baixo risco: use modelos de fallback mais baratos e faça o roteamento por função do agente.O MiniMax tem sua própria documentação: MiniMax e Modelos locais.Regra prática: use o melhor modelo que você puder pagar para trabalho de alto risco e um modelo mais barato para chat rotineiro ou resumos. Você pode rotear modelos por agente e usar subagentes para paralelizar tarefas longas (cada subagente consome tokens). Consulte Modelos e Subagentes.Aviso importante: modelos mais fracos/excessivamente quantizados são mais vulneráveis a prompt injection e comportamento inseguro. Consulte Segurança.Mais contexto: Modelos.
Use comandos de modelo ou edite apenas os campos de modelo. Evite substituir a configuração inteira.Opções seguras:
  • /model no chat (rápido, por sessão)
  • openclaw models set ... (atualiza apenas a configuração de modelo)
  • openclaw configure --section model (interativo)
  • edite agents.defaults.model em ~/.openclaw/openclaw.json
Evite config.apply com um objeto parcial, a menos que sua intenção seja substituir toda a configuração. Para edições por RPC, inspecione primeiro com config.schema.lookup e prefira config.patch. A carga útil de lookup fornece o caminho normalizado, documentação/restrições rasas do schema e resumos imediatos dos filhos. para atualizações parciais. Se você sobrescreveu a configuração, restaure do backup ou execute openclaw doctor novamente para reparar.Documentação: Modelos, Configure, Config, Doctor.
Sim. Ollama é o caminho mais fácil para modelos locais.Configuração mais rápida:
  1. Instale Ollama em https://ollama.com/download
  2. Baixe um modelo local, como ollama pull gemma4
  3. Se você também quiser modelos na nuvem, execute ollama signin
  4. Execute openclaw onboard e escolha Ollama
  5. Escolha Local ou Cloud + Local
Observações:
  • Cloud + Local oferece modelos na nuvem junto com seus modelos locais do Ollama
  • modelos de nuvem como kimi-k2.5:cloud não precisam de download local
  • para troca manual, use openclaw models list e openclaw models set ollama/<model>
Observação de segurança: modelos menores ou fortemente quantizados são mais vulneráveis a prompt injection. Recomendamos fortemente modelos grandes para qualquer bot que possa usar ferramentas. Se você ainda quiser modelos pequenos, habilite sandboxing e listas de permissão estritas de ferramentas.Documentação: Ollama, Modelos locais, Providers de modelo, Segurança, Sandboxing.
  • Essas implantações podem variar e podem mudar com o tempo; não há recomendação fixa de provider.
  • Verifique a configuração atual em runtime em cada gateway com openclaw models status.
  • Para agentes sensíveis à segurança/com ferramentas habilitadas, use o modelo mais forte da geração mais recente disponível.
Use o comando /model como uma mensagem isolada:
/model sonnet
/model opus
/model gpt
/model gpt-mini
/model gemini
/model gemini-flash
/model gemini-flash-lite
Esses são os aliases integrados. Aliases personalizados podem ser adicionados via agents.defaults.models.Você pode listar os modelos disponíveis com /model, /model list ou /model status./model (e /model list) mostra um seletor compacto e numerado. Selecione pelo número:
/model 3
Você também pode forçar um perfil de autenticação específico para o provider (por sessão):
/model opus@anthropic:default
/model opus@anthropic:work
Dica: /model status mostra qual agente está ativo, qual arquivo auth-profiles.json está sendo usado e qual perfil de autenticação será tentado em seguida. Também mostra o endpoint configurado do provider (baseUrl) e o modo da API (api) quando disponíveis.Como removo a fixação de um perfil que defini com @profile?Execute /model novamente sem o sufixo @profile:
/model anthropic/claude-opus-4-6
Se quiser voltar ao padrão, escolha-o em /model (ou envie /model <default provider/model>). Use /model status para confirmar qual perfil de autenticação está ativo.
Sim. Defina um como padrão e troque quando necessário:
  • Troca rápida (por sessão): /model openai/gpt-5.4 para tarefas atuais com chave de API direta da OpenAI ou /model openai-codex/gpt-5.5 para tarefas OAuth GPT-5.5 Codex.
  • Padrão: defina agents.defaults.model.primary como openai/gpt-5.4 para uso com chave de API ou openai-codex/gpt-5.5 para uso OAuth GPT-5.5 Codex.
  • Subagentes: roteie tarefas de coding para subagentes com um modelo padrão diferente.
O acesso direto por chave de API a openai/gpt-5.5 será compatível quando a OpenAI habilitar GPT-5.5 na API pública. Até lá, GPT-5.5 é apenas por assinatura/OAuth.Consulte Modelos e Comandos de barra.
Use uma alternância por sessão ou um padrão na configuração:
  • Por sessão: envie /fast on enquanto a sessão estiver usando openai/gpt-5.4 ou openai-codex/gpt-5.5.
  • Padrão por modelo: defina agents.defaults.models["openai/gpt-5.4"].params.fastMode ou agents.defaults.models["openai-codex/gpt-5.5"].params.fastMode como true.
Exemplo:
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            fastMode: true,
          },
        },
      },
    },
  },
}
Para OpenAI, fast mode é mapeado para service_tier = "priority" em solicitações nativas Responses compatíveis. Substituições de sessão com /fast prevalecem sobre os padrões da configuração.Consulte Thinking e fast mode e OpenAI fast mode.
Se agents.defaults.models estiver definido, ele se torna a lista de permissão para /model e quaisquer substituições de sessão. Escolher um modelo que não esteja nessa lista retorna:
Model "provider/model" is not allowed. Use /model to list available models.
Esse erro é retornado em vez de uma resposta normal. Correção: adicione o modelo a agents.defaults.models, remova a lista de permissão ou escolha um modelo em /model list.
Isso significa que o provider não está configurado (nenhuma configuração de provider MiniMax ou perfil de autenticação foi encontrado), então o modelo não pode ser resolvido.Checklist de correção:
  1. Atualize para uma versão atual do OpenClaw (ou execute a partir da main do código-fonte) e depois reinicie o gateway.
  2. Verifique se o MiniMax está configurado (assistente ou JSON), ou se a autenticação do MiniMax existe em env/perfis de autenticação para que o provider correspondente possa ser injetado (MINIMAX_API_KEY para minimax, MINIMAX_OAUTH_TOKEN ou MiniMax OAuth armazenado para minimax-portal).
  3. Use o ID de modelo exato (sensível a maiúsculas e minúsculas) para seu caminho de autenticação: minimax/MiniMax-M2.7 ou minimax/MiniMax-M2.7-highspeed para configuração com chave de API, ou minimax-portal/MiniMax-M2.7 / minimax-portal/MiniMax-M2.7-highspeed para configuração OAuth.
  4. Execute:
    openclaw models list
    
    e escolha um da lista (ou /model list no chat).
Consulte MiniMax e Modelos.
Sim. Use MiniMax como padrão e troque de modelo por sessão quando necessário. Fallbacks servem para erros, não para “tarefas difíceis”, então use /model ou um agente separado.Opção A: trocar por sessão
{
  env: { MINIMAX_API_KEY: "sk-...", OPENAI_API_KEY: "sk-..." },
  agents: {
    defaults: {
      model: { primary: "minimax/MiniMax-M2.7" },
      models: {
        "minimax/MiniMax-M2.7": { alias: "minimax" },
        "openai/gpt-5.4": { alias: "gpt" },
      },
    },
  },
}
Depois:
/model gpt
Opção B: agentes separados
  • Agente A padrão: MiniMax
  • Agente B padrão: OpenAI
  • Roteie por agente ou use /agent para trocar
Documentação: Modelos, Roteamento multiagente, MiniMax, OpenAI.
Sim. O OpenClaw inclui alguns atalhos padrão (aplicados somente quando o modelo existe em agents.defaults.models):
  • opusanthropic/claude-opus-4-6
  • sonnetanthropic/claude-sonnet-4-6
  • gptopenai/gpt-5.4 para configurações com chave de API, ou openai-codex/gpt-5.5 quando configurado para OAuth Codex
  • gpt-miniopenai/gpt-5.4-mini
  • gpt-nanoopenai/gpt-5.4-nano
  • geminigoogle/gemini-3.1-pro-preview
  • gemini-flashgoogle/gemini-3-flash-preview
  • gemini-flash-litegoogle/gemini-3.1-flash-lite-preview
Se você definir seu próprio alias com o mesmo nome, seu valor prevalece.
Os aliases vêm de agents.defaults.models.<modelId>.alias. Exemplo:
{
  agents: {
    defaults: {
      model: { primary: "anthropic/claude-opus-4-6" },
      models: {
        "anthropic/claude-opus-4-6": { alias: "opus" },
        "anthropic/claude-sonnet-4-6": { alias: "sonnet" },
        "anthropic/claude-haiku-4-5": { alias: "haiku" },
      },
    },
  },
}
Então /model sonnet (ou /<alias> quando compatível) é resolvido para esse ID de modelo.
OpenRouter (pagamento por token; muitos modelos):
{
  agents: {
    defaults: {
      model: { primary: "openrouter/anthropic/claude-sonnet-4-6" },
      models: { "openrouter/anthropic/claude-sonnet-4-6": {} },
    },
  },
  env: { OPENROUTER_API_KEY: "sk-or-..." },
}
Z.AI (modelos GLM):
{
  agents: {
    defaults: {
      model: { primary: "zai/glm-5" },
      models: { "zai/glm-5": {} },
    },
  },
  env: { ZAI_API_KEY: "..." },
}
Se você referenciar um provider/modelo, mas a chave necessária do provider estiver ausente, receberá um erro de autenticação em runtime (por exemplo, No API key found for provider "zai").Nenhuma chave de API encontrada para o provider após adicionar um novo agenteIsso geralmente significa que o novo agente tem um armazenamento de autenticação vazio. A autenticação é por agente e fica armazenada em:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json
Opções de correção:
  • Execute openclaw agents add <id> e configure a autenticação durante o assistente.
  • Ou copie auth-profiles.json do agentDir do agente principal para o agentDir do novo agente.
Não reutilize agentDir entre agentes; isso causa colisões de autenticação/sessão.

Failover de modelo e “All models failed”

O failover acontece em dois estágios:
  1. Rotação de perfil de autenticação dentro do mesmo provider.
  2. Fallback de modelo para o próximo modelo em agents.defaults.model.fallbacks.
Cooldowns se aplicam a perfis com falha (backoff exponencial), então o OpenClaw pode continuar respondendo mesmo quando um provider está com limite de taxa ou falhando temporariamente.O bucket de limite de taxa inclui mais do que respostas simples 429. O OpenClaw também trata mensagens como Too many concurrent requests, ThrottlingException, concurrency limit reached, workers_ai ... quota limit exceeded, resource exhausted e limites periódicos de janela de uso (weekly/monthly limit reached) como limites de taxa dignos de failover.Algumas respostas com aparência de cobrança não são 402, e algumas respostas HTTP 402 também permanecem nesse bucket transitório. Se um provider retornar texto explícito de cobrança em 401 ou 403, o OpenClaw ainda pode manter isso na trilha de cobrança, mas correspondências de texto específicas de provider permanecem restritas ao provider que as possui (por exemplo, OpenRouter Key limit exceeded). Se uma mensagem 402 em vez disso parecer um limite de janela de uso repetível ou limite de gasto de organização/workspace (daily limit reached, resets tomorrow, organization spending limit exceeded), o OpenClaw a trata como rate_limit, não como uma desativação longa por cobrança.Erros de overflow de contexto são diferentes: assinaturas como request_too_large, input exceeds the maximum number of tokens, input token count exceeds the maximum number of input tokens, input is too long for the model ou ollama error: context length exceeded permanecem no caminho de Compaction/retry em vez de avançar para o fallback de modelo.O texto genérico de erro de servidor é intencionalmente mais restrito do que “qualquer coisa com unknown/error”. O OpenClaw trata formas transitórias com escopo de provider como Anthropic simples An unknown error occurred, OpenRouter simples Provider returned error, erros de stop-reason como Unhandled stop reason: error, payloads JSON api_error com texto transitório de servidor (internal server error, unknown error, 520, upstream error, backend error) e erros de provider ocupado como ModelNotReadyException como sinais de timeout/sobrecarga dignos de failover quando o contexto do provider corresponde. Texto genérico de fallback interno como LLM request failed with an unknown error. permanece conservador e não aciona fallback de modelo por si só.
Isso significa que o sistema tentou usar o ID de perfil de autenticação anthropic:default, mas não conseguiu encontrar credenciais para ele no armazenamento de autenticação esperado.Checklist de correção:
  • Confirme onde ficam os perfis de autenticação (caminhos novos vs legados)
    • Atual: ~/.openclaw/agents/<agentId>/agent/auth-profiles.json
    • Legado: ~/.openclaw/agent/* (migrado por openclaw doctor)
  • Confirme que sua variável de ambiente foi carregada pelo Gateway
    • Se você definiu ANTHROPIC_API_KEY no seu shell, mas executa o Gateway via systemd/launchd, ele pode não herdá-la. Coloque-a em ~/.openclaw/.env ou habilite env.shellEnv.
  • Certifique-se de que está editando o agente correto
    • Configurações multiagente significam que pode haver vários arquivos auth-profiles.json.
  • Faça uma verificação rápida do status de modelo/autenticação
    • Use openclaw models status para ver modelos configurados e se os providers estão autenticados.
Checklist de correção para “No credentials found for profile anthropic”Isso significa que a execução está fixada em um perfil de autenticação Anthropic, mas o Gateway não consegue encontrá-lo no seu armazenamento de autenticação.
  • Use Claude CLI
    • Execute openclaw models auth login --provider anthropic --method cli --set-default no host do gateway.
  • Se quiser usar uma chave de API
    • Coloque ANTHROPIC_API_KEY em ~/.openclaw/.env no host do gateway.
    • Limpe qualquer ordem fixada que force um perfil ausente:
      openclaw models auth order clear --provider anthropic
      
  • Confirme que está executando comandos no host do gateway
    • No modo remoto, perfis de autenticação ficam na máquina do gateway, não no seu laptop.
Se sua configuração de modelo inclui Google Gemini como fallback (ou se você trocou para um atalho Gemini), o OpenClaw tentará usá-lo durante o fallback de modelo. Se você não configurou credenciais do Google, verá No API key found for provider "google".Correção: forneça autenticação do Google ou remova/evite modelos Google em agents.defaults.model.fallbacks / aliases para que o fallback não seja roteado para lá.LLM request rejected: thinking signature required (Google Antigravity)Causa: o histórico da sessão contém blocos de thinking sem assinaturas (muitas vezes de um stream abortado/parcial). O Google Antigravity exige assinaturas para blocos de thinking.Correção: o OpenClaw agora remove blocos de thinking sem assinatura para Claude do Google Antigravity. Se ainda aparecer, inicie uma nova sessão ou defina /thinking off para esse agente.

Perfis de autenticação: o que são e como gerenciá-los

Relacionado: /concepts/oauth (fluxos OAuth, armazenamento de token, padrões de múltiplas contas)
Um perfil de autenticação é um registro nomeado de credencial (OAuth ou chave de API) vinculado a um provider. Os perfis ficam em:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json
O OpenClaw usa IDs com prefixo do provider, como:
  • anthropic:default (comum quando não existe identidade por e-mail)
  • anthropic:<email> para identidades OAuth
  • IDs personalizados que você escolher (por exemplo anthropic:work)
Sim. A configuração oferece suporte a metadados opcionais para perfis e a uma ordenação por provider (auth.order.<provider>). Isso não armazena segredos; mapeia IDs para provider/modo e define a ordem de rotação.O OpenClaw pode ignorar temporariamente um perfil se ele estiver em um cooldown curto (limites de taxa/timeouts/falhas de autenticação) ou em um estado desabilitado mais longo (cobrança/créditos insuficientes). Para inspecionar isso, execute openclaw models status --json e verifique auth.unusableProfiles. Ajuste: auth.cooldowns.billingBackoffHours*.Cooldowns de limite de taxa podem ter escopo por modelo. Um perfil que está em cooldown para um modelo ainda pode ser utilizável para um modelo irmão no mesmo provider, enquanto janelas de cobrança/desativação continuam bloqueando o perfil inteiro.Você também pode definir uma substituição de ordem por agente (armazenada em auth-state.json desse agente) via CLI:
# Usa por padrão o agente padrão configurado (omita --agent)
openclaw models auth order get --provider anthropic

# Fixa a rotação em um único perfil (tente somente este)
openclaw models auth order set --provider anthropic anthropic:default

# Ou define uma ordem explícita (fallback dentro do provider)
openclaw models auth order set --provider anthropic anthropic:work anthropic:default

# Limpa a substituição (volta para config auth.order / round-robin)
openclaw models auth order clear --provider anthropic
Para direcionar a um agente específico:
openclaw models auth order set --provider anthropic --agent main anthropic:default
Para verificar o que realmente será tentado, use:
openclaw models status --probe
Se um perfil armazenado for omitido da ordem explícita, a probe informa excluded_by_auth_order para esse perfil em vez de tentar usá-lo silenciosamente.
O OpenClaw oferece suporte a ambos:
  • OAuth geralmente aproveita acesso por assinatura (quando aplicável).
  • Chaves de API usam cobrança por token.
O assistente oferece suporte explícito a Anthropic Claude CLI, OpenAI Codex OAuth e chaves de API.

Relacionado