LiteLLM
LiteLLM es un gateway de LLM de código abierto que proporciona una API unificada para más de 100 proveedores de modelos. Enruta OpenClaw a través de LiteLLM para obtener seguimiento centralizado de costes, logging y la flexibilidad de cambiar backends sin modificar tu configuración de OpenClaw.¿Por qué usar LiteLLM con OpenClaw?
- Seguimiento de costes — Ve exactamente cuánto gasta OpenClaw en todos los modelos
- Enrutamiento de modelos — Cambia entre Claude, GPT-4, Gemini, Bedrock sin cambios de configuración
- Claves virtuales — Crea claves con límites de gasto para OpenClaw
- Logging — Logs completos de solicitudes/respuestas para depuración
- Fallbacks — Failover automático si tu proveedor principal no está disponible
Inicio rápido
Mediante onboarding
Configuración manual
- Inicia LiteLLM Proxy:
- Apunta OpenClaw a LiteLLM:
Configuración
Variables de entorno
Archivo de configuración
Claves virtuales
Crea una clave dedicada para OpenClaw con límites de gasto:LITELLM_API_KEY.
Enrutamiento de modelos
LiteLLM puede enrutar solicitudes de modelos a distintos backends. Configúralo en tuconfig.yaml de LiteLLM:
claude-opus-4-6; LiteLLM se encarga del enrutamiento.
Ver el uso
Consulta el panel de LiteLLM o la API:Notas
- LiteLLM se ejecuta en
http://localhost:4000por defecto - OpenClaw se conecta a través del endpoint
/v1compatible con OpenAI de estilo proxy de LiteLLM - El modelado de solicitudes exclusivo de OpenAI nativo no se aplica a través de LiteLLM:
sin
service_tier, sinstorede Responses, sin pistas de caché de prompts y sin modelado de carga útil de compatibilidad de razonamiento de OpenAI - Las cabeceras ocultas de atribución de OpenClaw (
originator,version,User-Agent) no se inyectan en URLs base personalizadas de LiteLLM