LiteLLM
LiteLLM é um gateway de LLM de código aberto que fornece uma API unificada para mais de 100 provedores de modelo. Roteie o OpenClaw por meio do LiteLLM para obter rastreamento centralizado de custos, logs e a flexibilidade de trocar de backend sem alterar sua configuração do OpenClaw.Por que usar LiteLLM com OpenClaw?
- Rastreamento de custos — Veja exatamente quanto o OpenClaw gasta em todos os modelos
- Roteamento de modelos — Alterne entre Claude, GPT-4, Gemini, Bedrock sem mudanças de configuração
- Chaves virtuais — Crie chaves com limites de gasto para o OpenClaw
- Logs — Logs completos de solicitação/resposta para depuração
- Fallbacks — Failover automático se seu provedor principal estiver indisponível
Início rápido
Via onboarding
Configuração manual
- Inicie o LiteLLM Proxy:
- Aponte o OpenClaw para o LiteLLM:
Configuração
Variáveis de ambiente
Arquivo de configuração
Chaves virtuais
Crie uma chave dedicada para o OpenClaw com limites de gasto:LITELLM_API_KEY.
Roteamento de modelos
O LiteLLM pode rotear solicitações de modelo para diferentes backends. Configure no seuconfig.yaml do LiteLLM:
claude-opus-4-6 — o LiteLLM cuida do roteamento.
Visualizando o uso
Consulte o dashboard ou a API do LiteLLM:Observações
- O LiteLLM roda em
http://localhost:4000por padrão - O OpenClaw se conecta por meio do endpoint
/v1compatível com OpenAI em estilo proxy do LiteLLM - A modelagem de solicitação nativa exclusiva do OpenAI não se aplica por meio do LiteLLM:
sem
service_tier, semstorede Responses, sem dicas de cache de prompt e sem modelagem de payload compatível com raciocínio do OpenAI - Headers ocultos de atribuição do OpenClaw (
originator,version,User-Agent) não são injetados em URLs base personalizadas do LiteLLM