LiteLLM
LiteLLM est une passerelle LLM open source qui fournit une API unifiée vers plus de 100 fournisseurs de modèles. Faites passer OpenClaw par LiteLLM pour bénéficier d’un suivi centralisé des coûts, de la journalisation et de la souplesse nécessaire pour changer de backend sans modifier votre configuration OpenClaw.Pourquoi utiliser LiteLLM avec OpenClaw ?
- Suivi des coûts — voyez exactement ce qu’OpenClaw dépense sur l’ensemble des modèles
- Routage des modèles — passez de Claude à GPT-4, Gemini, Bedrock sans changement de configuration
- Clés virtuelles — créez des clés avec des limites de dépenses pour OpenClaw
- Journalisation — journaux complets des requêtes/réponses pour le débogage
- Replis — failover automatique si votre fournisseur principal est indisponible
Démarrage rapide
Via l’onboarding
Configuration manuelle
- Démarrez LiteLLM Proxy :
- Pointez OpenClaw vers LiteLLM :
Configuration
Variables d’environnement
Fichier de configuration
Clés virtuelles
Créez une clé dédiée pour OpenClaw avec des limites de dépenses :LITELLM_API_KEY.
Routage des modèles
LiteLLM peut router les requêtes de modèle vers différents backends. Configurez cela dans votreconfig.yaml LiteLLM :
claude-opus-4-6 — LiteLLM se charge du routage.
Consulter l’utilisation
Consultez le tableau de bord ou l’API de LiteLLM :Remarques
- LiteLLM s’exécute sur
http://localhost:4000par défaut - OpenClaw se connecte via le point de terminaison
/v1compatible OpenAI de type proxy de LiteLLM - La mise en forme des requêtes réservée à OpenAI natif ne s’applique pas via LiteLLM :
pas de
service_tier, pas destorede Responses, pas d’indices de cache de prompt, ni de mise en forme de charge utile de compatibilité de raisonnement OpenAI - Les en-têtes d’attribution OpenClaw cachés (
originator,version,User-Agent) ne sont pas injectés sur des base URL LiteLLM personnalisées