Zum Hauptinhalt springen

OpenRouter

OpenRouter bietet eine einheitliche API, die Anfragen über einen einzigen Endpunkt und API-Schlüssel an viele Modelle weiterleitet. Sie ist OpenAI-kompatibel, daher funktionieren die meisten OpenAI-SDKs durch Wechseln der Base-URL.

Erste Schritte

1

Ihren API-Schlüssel abrufen

Erstellen Sie einen API-Schlüssel unter openrouter.ai/keys.
2

Onboarding ausführen

openclaw onboard --auth-choice openrouter-api-key
3

(Optional) Zu einem bestimmten Modell wechseln

Onboarding verwendet standardmäßig openrouter/auto. Wählen Sie später ein konkretes Modell:
openclaw models set openrouter/<provider>/<model>

Konfigurationsbeispiel

{
  env: { OPENROUTER_API_KEY: "sk-or-..." },
  agents: {
    defaults: {
      model: { primary: "openrouter/auto" },
    },
  },
}

Modell-Referenzen

Modell-Refs folgen dem Muster openrouter/<provider>/<model>. Die vollständige Liste der verfügbaren Provider und Modelle finden Sie unter /concepts/model-providers.

Authentifizierung und Header

OpenRouter verwendet intern ein Bearer-Token mit Ihrem API-Schlüssel. Bei echten OpenRouter-Anfragen (https://openrouter.ai/api/v1) fügt OpenClaw außerdem die dokumentierten App-Attribution-Header von OpenRouter hinzu:
HeaderWert
HTTP-Refererhttps://openclaw.ai
X-OpenRouter-TitleOpenClaw
X-OpenRouter-Categoriescli-agent
Wenn Sie den OpenRouter-Provider auf einen anderen Proxy oder eine andere Base-URL umstellen, fügt OpenClaw diese OpenRouter-spezifischen Header oder Anthropic-Cache-Marker nicht ein.

Erweiterte Hinweise

Auf verifizierten OpenRouter-Routen behalten Anthropic-Modell-Refs die OpenRouter-spezifischen Anthropic-cache_control-Marker, die OpenClaw für eine bessere Wiederverwendung des Prompt-Caches bei System-/Developer-Prompt-Blöcken verwendet.
Auf unterstützten Routen, die nicht auto sind, ordnet OpenClaw die ausgewählte Thinking-Stufe OpenRouter-Proxy-Reasoning-Payloads zu. Nicht unterstützte Modellhinweise und openrouter/auto überspringen diese Reasoning-Injektion.
OpenRouter läuft weiterhin über den proxyartigen OpenAI-kompatiblen Pfad, daher werden native nur-OpenAI-Anfrageformungen wie serviceTier, Responses-store, OpenAI-Reasoning-kompatible Payloads und Prompt-Cache-Hinweise nicht weitergeleitet.
OpenRouter-Refs auf Basis von Gemini bleiben auf dem Proxy-Gemini-Pfad: OpenClaw behält dort die Bereinigung der Gemini-Thought-Signature bei, aktiviert aber keine native Gemini- Replay-Validierung oder Bootstrap-Umschreibungen.
Wenn Sie OpenRouter-Provider-Routing unter Modellparametern übergeben, leitet OpenClaw diese als OpenRouter-Routing-Metadaten weiter, bevor die gemeinsamen Stream-Wrapper ausgeführt werden.

Verwandt

Modellauswahl

Auswahl von Providern, Modell-Refs und Failover-Verhalten.

Konfigurationsreferenz

Vollständige Konfigurationsreferenz für Agenten, Modelle und Provider.