Przejdź do głównej treści

OpenRouter

OpenRouter udostępnia ujednolicone API, które kieruje żądania do wielu modeli za jednym endpointem i kluczem API. Jest zgodne z OpenAI, więc większość SDK OpenAI działa po zmianie bazowego URL.

Pierwsze kroki

1

Pobierz klucz API

Utwórz klucz API na openrouter.ai/keys.
2

Uruchom onboarding

openclaw onboard --auth-choice openrouter-api-key
3

(Opcjonalnie) Przełącz na konkretny model

Onboarding domyślnie ustawia openrouter/auto. Później wybierz konkretny model:
openclaw models set openrouter/<provider>/<model>

Przykład konfiguracji

{
  env: { OPENROUTER_API_KEY: "sk-or-..." },
  agents: {
    defaults: {
      model: { primary: "openrouter/auto" },
    },
  },
}

Odwołania do modeli

Odwołania do modeli mają postać openrouter/<provider>/<model>. Pełną listę dostępnych dostawców i modeli znajdziesz w /concepts/model-providers.

Uwierzytelnianie i nagłówki

OpenRouter używa wewnętrznie tokenu Bearer z Twoim kluczem API. Przy rzeczywistych żądaniach OpenRouter (https://openrouter.ai/api/v1) OpenClaw dodaje też udokumentowane przez OpenRouter nagłówki atrybucji aplikacji:
NagłówekWartość
HTTP-Refererhttps://openclaw.ai
X-OpenRouter-TitleOpenClaw
X-OpenRouter-Categoriescli-agent
Jeśli przekierujesz dostawcę OpenRouter na inne proxy lub bazowy URL, OpenClaw nie wstrzykuje tych nagłówków specyficznych dla OpenRouter ani znaczników cache Anthropic.

Uwagi zaawansowane

Na zweryfikowanych trasach OpenRouter odwołania do modeli Anthropic zachowują specyficzne dla OpenRouter znaczniki Anthropic cache_control, których OpenClaw używa do lepszego ponownego użycia cache promptów w blokach promptów system/developer.
Na obsługiwanych trasach innych niż auto OpenClaw mapuje wybrany poziom thinking na payloady reasoning proxy OpenRouter. Nieobsługiwane wskazówki modelu oraz openrouter/auto pomijają to wstrzykiwanie reasoning.
OpenRouter nadal działa przez kompatybilną z OpenAI ścieżkę w stylu proxy, więc natywne formatowanie żądań tylko dla OpenAI, takie jak serviceTier, store dla Responses, payloady zgodności reasoning OpenAI i wskazówki cache promptów, nie jest przekazywane dalej.
Odwołania OpenRouter oparte na Gemini pozostają na ścieżce proxy-Gemini: OpenClaw zachowuje tam sanityzację podpisu myśli Gemini, ale nie włącza natywnej walidacji replay Gemini ani przepisania bootstrapu.
Jeśli przekażesz routing dostawcy OpenRouter w parametrach modelu, OpenClaw przekaże go jako metadane routingu OpenRouter, zanim uruchomią się współdzielone wrappery streamu.

Powiązane

Wybór modelu

Wybór dostawców, odwołań do modeli i zachowania failover.

Referencja konfiguracji

Pełna referencja konfiguracji agentów, modeli i dostawców.