LiteLLM
LiteLLM è un gateway LLM open-source che fornisce un’API unificata per oltre 100 provider di modelli. Instrada OpenClaw tramite LiteLLM per ottenere monitoraggio centralizzato dei costi, logging e la flessibilità di cambiare backend senza modificare la configurazione di OpenClaw.Perché usare LiteLLM con OpenClaw?
- Monitoraggio dei costi — Vedi esattamente quanto OpenClaw spende su tutti i modelli
- Instradamento dei modelli — Passa tra Claude, GPT-4, Gemini, Bedrock senza modifiche di configurazione
- Chiavi virtuali — Crea chiavi con limiti di spesa per OpenClaw
- Logging — Log completi di richiesta/risposta per il debug
- Fallback — Failover automatico se il provider primario non è disponibile
Avvio rapido
Tramite onboarding
Configurazione manuale
- Avvia LiteLLM Proxy:
- Punta OpenClaw a LiteLLM:
Configurazione
Variabili d’ambiente
File di configurazione
Chiavi virtuali
Crea una chiave dedicata per OpenClaw con limiti di spesa:LITELLM_API_KEY.
Instradamento dei modelli
LiteLLM può instradare le richieste di modello verso backend diversi. Configuralo nel tuoconfig.yaml di LiteLLM:
claude-opus-4-6 — LiteLLM gestisce l’instradamento.
Visualizzazione dell’utilizzo
Controlla la dashboard o l’API di LiteLLM:Note
- LiteLLM è in esecuzione su
http://localhost:4000per impostazione predefinita - OpenClaw si connette tramite l’endpoint
/v1in stile proxy compatibile con OpenAI di LiteLLM - Il request shaping nativo solo OpenAI non si applica tramite LiteLLM:
niente
service_tier, nientestoredi Responses, niente hint di prompt-cache e nessun payload shaping di compatibilità del reasoning OpenAI - Gli header di attribuzione nascosti di OpenClaw (
originator,version,User-Agent) non vengono iniettati su base URL LiteLLM personalizzati