LiteLLM
LiteLLM ist ein Open-Source-LLM-Gateway, das eine einheitliche API für mehr als 100 Modell-Provider bereitstellt. Leiten Sie OpenClaw über LiteLLM, um zentrale Kostenverfolgung, Logging und die Flexibilität zu erhalten, Backends zu wechseln, ohne Ihre OpenClaw-Konfiguration zu ändern.Warum LiteLLM mit OpenClaw verwenden?
- Kostenverfolgung — Sehen Sie genau, was OpenClaw für alle Modelle ausgibt
- Modell-Routing — Wechseln Sie zwischen Claude, GPT-4, Gemini, Bedrock ohne Konfigurationsänderungen
- Virtuelle Schlüssel — Erstellen Sie Schlüssel mit Ausgabenlimits für OpenClaw
- Logging — Vollständige Request-/Response-Logs zum Debuggen
- Fallbacks — Automatisches Failover, wenn Ihr primärer Provider nicht verfügbar ist
Schnellstart
Über das Onboarding
Manuelle Einrichtung
- LiteLLM Proxy starten:
- OpenClaw auf LiteLLM verweisen lassen:
Konfiguration
Umgebungsvariablen
Konfigurationsdatei
Virtuelle Schlüssel
Erstellen Sie einen dedizierten Schlüssel für OpenClaw mit Ausgabenlimits:LITELLM_API_KEY.
Modell-Routing
LiteLLM kann Modellanfragen an verschiedene Backends weiterleiten. Konfigurieren Sie dies in Ihrer LiteLLM-config.yaml:
claude-opus-4-6 an — LiteLLM übernimmt das Routing.
Nutzung anzeigen
Prüfen Sie das Dashboard oder die API von LiteLLM:Hinweise
- LiteLLM läuft standardmäßig auf
http://localhost:4000 - OpenClaw verbindet sich über den Proxy-artigen OpenAI-kompatiblen
/v1- Endpunkt von LiteLLM - Natives nur-für-OpenAI Request-Shaping wird über LiteLLM nicht angewendet:
kein
service_tier, kein Responses-store, keine Prompt-Cache-Hinweise und kein OpenAI-Reasoning-Kompatibilitäts-Payload-Shaping - Verborgene OpenClaw-Attribution-Header (
originator,version,User-Agent) werden bei benutzerdefinierten LiteLLM-Base-URLs nicht eingefügt