vLLM
vLLM peut servir des modèles open source (et certains modèles personnalisés) via une API HTTP compatible OpenAI. OpenClaw peut se connecter à vLLM en utilisant l’APIopenai-completions.
OpenClaw peut aussi découvrir automatiquement les modèles disponibles depuis vLLM lorsque vous activez cette option avec VLLM_API_KEY (n’importe quelle valeur fonctionne si votre serveur n’applique pas d’authentification) et que vous ne définissez pas d’entrée explicite models.providers.vllm.
Démarrage rapide
- Démarrez vLLM avec un serveur compatible OpenAI.
/v1 (par ex. /v1/models, /v1/chat/completions). vLLM s’exécute généralement sur :
http://127.0.0.1:8000/v1
- Activez l’option (n’importe quelle valeur fonctionne si aucune authentification n’est configurée) :
- Sélectionnez un modèle (remplacez par l’un de vos IDs de modèle vLLM) :
Découverte de modèles (fournisseur implicite)
LorsqueVLLM_API_KEY est défini (ou qu’un profil d’authentification existe) et que vous ne définissez pas models.providers.vllm, OpenClaw interroge :
GET http://127.0.0.1:8000/v1/models
models.providers.vllm, la découverte automatique est ignorée et vous devez définir les modèles manuellement.
Configuration explicite (modèles manuels)
Utilisez une configuration explicite lorsque :- vLLM s’exécute sur un autre hôte/port.
- Vous souhaitez épingler les valeurs
contextWindow/maxTokens. - Votre serveur nécessite une vraie clé API (ou vous souhaitez contrôler les en-têtes).
Dépannage
- Vérifiez que le serveur est joignable :
- Si les requêtes échouent avec des erreurs d’authentification, définissez une vraie
VLLM_API_KEYcorrespondant à la configuration de votre serveur, ou configurez explicitement le fournisseur sousmodels.providers.vllm.
Comportement de type proxy
vLLM est traité comme un backend/v1 compatible OpenAI de type proxy, et non comme un point de terminaison
OpenAI natif.
- la mise en forme des requêtes spécifique à OpenAI natif ne s’applique pas ici
- pas de
service_tier, pas destoreResponses, pas d’indications de cache de prompt, et pas de mise en forme de charge utile de compatibilité de raisonnement OpenAI - les en-têtes d’attribution cachés OpenClaw (
originator,version,User-Agent) ne sont pas injectés sur des URLs de base vLLM personnalisées