Vai al contenuto principale

OpenRouter

OpenRouter fornisce un’API unificata che instrada le richieste verso molti modelli dietro un singolo endpoint e una singola chiave API. È compatibile con OpenAI, quindi la maggior parte degli SDK OpenAI funziona cambiando l’URL di base.

Per iniziare

1

Ottieni la tua chiave API

Crea una chiave API su openrouter.ai/keys.
2

Esegui l’onboarding

openclaw onboard --auth-choice openrouter-api-key
3

(Facoltativo) Passa a un modello specifico

L’onboarding usa come predefinito openrouter/auto. Scegli più tardi un modello concreto:
openclaw models set openrouter/<provider>/<model>

Esempio di configurazione

{
  env: { OPENROUTER_API_KEY: "sk-or-..." },
  agents: {
    defaults: {
      model: { primary: "openrouter/auto" },
    },
  },
}

Riferimenti di modello

I riferimenti di modello seguono il formato openrouter/<provider>/<model>. Per l’elenco completo di provider e modelli disponibili, consulta /concepts/model-providers.

Autenticazione e header

OpenRouter usa internamente un token Bearer con la tua chiave API. Nelle richieste OpenRouter reali (https://openrouter.ai/api/v1), OpenClaw aggiunge anche gli header di attribuzione dell’app documentati da OpenRouter:
HeaderValue
HTTP-Refererhttps://openclaw.ai
X-OpenRouter-TitleOpenClaw
X-OpenRouter-Categoriescli-agent
Se punti il provider OpenRouter a un altro proxy o URL di base, OpenClaw non inserisce quegli header specifici di OpenRouter né i marker di cache Anthropic.

Note avanzate

Sui percorsi OpenRouter verificati, i riferimenti di modello Anthropic mantengono i marker cache_control Anthropic specifici di OpenRouter che OpenClaw usa per un migliore riutilizzo della cache del prompt nei blocchi di prompt system/developer.
Sui percorsi supportati non auto, OpenClaw mappa il livello di thinking selezionato ai payload di reasoning del proxy OpenRouter. Gli hint di modello non supportati e openrouter/auto saltano questo inserimento del reasoning.
OpenRouter continua a passare attraverso il percorso proxy in stile compatibile OpenAI, quindi la formattazione nativa delle richieste solo OpenAI come serviceTier, store di Responses, payload di compatibilità reasoning OpenAI e hint di cache del prompt non viene inoltrata.
I riferimenti OpenRouter basati su Gemini restano sul percorso proxy-Gemini: OpenClaw mantiene lì la sanificazione della thought-signature di Gemini, ma non abilita la validazione nativa del replay di Gemini né le riscritture di bootstrap.
Se passi l’instradamento del provider OpenRouter sotto i parametri del modello, OpenClaw lo inoltra come metadati di instradamento OpenRouter prima che vengano eseguiti i wrapper di streaming condivisi.

Correlati

Selezione del modello

Scelta dei provider, dei riferimenti di modello e del comportamento di failover.

Riferimento della configurazione

Riferimento completo della configurazione per agenti, modelli e provider.