Pular para o conteúdo principal

OpenRouter

O OpenRouter fornece uma API unificada que encaminha solicitações para muitos modelos por trás de um único endpoint e uma única chave de API. Ele é compatível com OpenAI, então a maioria dos SDKs da OpenAI funciona trocando a URL base.

Primeiros passos

1

Obtenha sua chave de API

Crie uma chave de API em openrouter.ai/keys.
2

Execute o onboarding

openclaw onboard --auth-choice openrouter-api-key
3

(Opcional) Mude para um modelo específico

O onboarding usa openrouter/auto por padrão. Escolha um modelo concreto depois:
openclaw models set openrouter/<provider>/<model>

Exemplo de configuração

{
  env: { OPENROUTER_API_KEY: "sk-or-..." },
  agents: {
    defaults: {
      model: { primary: "openrouter/auto" },
    },
  },
}

Referências de modelo

As referências de modelo seguem o padrão openrouter/<provider>/<model>. Para a lista completa de providers e modelos disponíveis, consulte /concepts/model-providers.

Autenticação e headers

O OpenRouter usa um token Bearer com sua chave de API internamente. Em solicitações reais ao OpenRouter (https://openrouter.ai/api/v1), o OpenClaw também adiciona os headers documentados de atribuição de app do OpenRouter:
HeaderValor
HTTP-Refererhttps://openclaw.ai
X-OpenRouter-TitleOpenClaw
X-OpenRouter-Categoriescli-agent
Se você redirecionar o provider OpenRouter para algum outro proxy ou URL base, o OpenClaw não injeta esses headers específicos do OpenRouter nem marcadores de cache do Anthropic.

Observações avançadas

Em rotas OpenRouter verificadas, referências de modelo do Anthropic mantêm os marcadores cache_control específicos do Anthropic no OpenRouter que o OpenClaw usa para melhor reutilização do cache de prompt em blocos de prompt do sistema/desenvolvedor.
Em rotas compatíveis que não são auto, o OpenClaw mapeia o nível de thinking selecionado para payloads de raciocínio de proxy do OpenRouter. Dicas de modelos não compatíveis e openrouter/auto pulam essa injeção de raciocínio.
O OpenRouter ainda funciona pelo caminho em estilo proxy compatível com OpenAI, então modelagens de solicitação exclusivas nativas da OpenAI, como serviceTier, store do Responses, payloads de compatibilidade de raciocínio da OpenAI e dicas de cache de prompt não são encaminhadas.
Referências OpenRouter com Gemini por trás permanecem no caminho proxy-Gemini: o OpenClaw mantém ali a sanitização de thought-signature do Gemini, mas não habilita validação nativa de replay do Gemini nem reescritas de bootstrap.
Se você passar roteamento de provider do OpenRouter em parâmetros do modelo, o OpenClaw encaminha isso como metadados de roteamento do OpenRouter antes de os wrappers de stream compartilhados serem executados.

Relacionados

Seleção de modelo

Escolha de providers, referências de modelo e comportamento de failover.

Referência de configuração

Referência completa de configuração para agentes, modelos e providers.