LiteLLM
LiteLLM to bramka LLM typu open source, która zapewnia ujednolicone API do ponad 100 dostawców modeli. Kieruj OpenClaw przez LiteLLM, aby uzyskać scentralizowane śledzenie kosztów, logowanie i elastyczność przełączania backendów bez zmiany konfiguracji OpenClaw.Dlaczego warto używać LiteLLM z OpenClaw?
- Śledzenie kosztów — dokładnie sprawdzisz, ile OpenClaw wydaje na wszystkie modele
- Routing modeli — przełączanie między Claude, GPT-4, Gemini i Bedrock bez zmian konfiguracji
- Klucze wirtualne — twórz klucze z limitami wydatków dla OpenClaw
- Logowanie — pełne logi żądań/odpowiedzi do debugowania
- Przełączanie awaryjne — automatyczny failover, jeśli główny dostawca jest niedostępny
Szybki start
Przez onboarding
Konfiguracja ręczna
- Uruchom LiteLLM Proxy:
- Skieruj OpenClaw do LiteLLM:
Konfiguracja
Zmienne środowiskowe
Plik konfiguracyjny
Klucze wirtualne
Utwórz dedykowany klucz dla OpenClaw z limitami wydatków:LITELLM_API_KEY.
Routing modeli
LiteLLM może kierować żądania modeli do różnych backendów. Skonfiguruj to wconfig.yaml LiteLLM:
claude-opus-4-6 — routing obsługuje LiteLLM.
Wyświetlanie użycia
Sprawdź panel LiteLLM lub API:Uwagi
- LiteLLM domyślnie działa pod adresem
http://localhost:4000 - OpenClaw łączy się przez endpoint
/v1zgodny z OpenAI w stylu proxy LiteLLM - Natywne formatowanie żądań wyłącznie dla OpenAI nie ma zastosowania przez LiteLLM:
brak
service_tier, brakstoredla Responses, brak wskazówek pamięci podręcznej promptów i brak formatowania payloadów zgodności reasoning OpenAI - Ukryte nagłówki atrybucji OpenClaw (
originator,version,User-Agent) nie są wstrzykiwane dla niestandardowych adresów base URL LiteLLM