vLLM
vLLM peut servir des modèles open source (et certains modèles personnalisés) via une API HTTP compatible OpenAI. OpenClaw se connecte à vLLM à l’aide de l’APIopenai-completions.
OpenClaw peut aussi détecter automatiquement les modèles disponibles depuis vLLM lorsque vous l’activez avec VLLM_API_KEY (n’importe quelle valeur fonctionne si votre serveur n’impose pas d’authentification) et que vous ne définissez pas d’entrée explicite models.providers.vllm.
| Propriété | Valeur |
|---|---|
| ID du fournisseur | vllm |
| API | openai-completions (compatible OpenAI) |
| Authentification | variable d’environnement VLLM_API_KEY |
| URL de base par défaut | http://127.0.0.1:8000/v1 |
Premiers pas
Démarrer vLLM avec un serveur compatible OpenAI
Votre URL de base doit exposer des points de terminaison
/v1 (par ex. /v1/models, /v1/chat/completions). vLLM s’exécute généralement sur :Définir la variable d’environnement de clé API
N’importe quelle valeur fonctionne si votre serveur n’impose pas d’authentification :
Détection de modèles (fournisseur implicite)
LorsqueVLLM_API_KEY est défini (ou qu’un profil d’authentification existe) et que vous ne définissez pas models.providers.vllm, OpenClaw interroge :
Si vous définissez explicitement
models.providers.vllm, la détection automatique est ignorée et vous devez définir les modèles manuellement.Configuration explicite (modèles manuels)
Utilisez une configuration explicite lorsque :- vLLM s’exécute sur un hôte ou un port différent
- Vous voulez épingler les valeurs
contextWindowoumaxTokens - Votre serveur exige une vraie clé API (ou vous voulez contrôler les en-têtes)
Notes avancées
Comportement de type proxy
Comportement de type proxy
vLLM est traité comme un backend
/v1 compatible OpenAI de type proxy, et non comme un point de terminaison
OpenAI natif. Cela signifie :| Comportement | Appliqué ? |
|---|---|
| Mise en forme native des requêtes OpenAI | Non |
service_tier | Non envoyé |
store de Responses | Non envoyé |
| Indications de cache de prompt | Non envoyées |
| Mise en forme de charge utile de compatibilité du raisonnement OpenAI | Non appliquée |
| En-têtes d’attribution OpenClaw cachés | Non injectés sur les URL de base personnalisées |
URL de base personnalisée
URL de base personnalisée
Si votre serveur vLLM s’exécute sur un hôte ou un port non par défaut, définissez
baseUrl dans la configuration explicite du fournisseur :Dépannage
Serveur inaccessible
Serveur inaccessible
Vérifiez que le serveur vLLM est en cours d’exécution et accessible :Si vous voyez une erreur de connexion, vérifiez l’hôte, le port et que vLLM a démarré avec le mode serveur compatible OpenAI.
Erreurs d’authentification sur les requêtes
Erreurs d’authentification sur les requêtes
Si les requêtes échouent avec des erreurs d’authentification, définissez une vraie
VLLM_API_KEY correspondant à la configuration de votre serveur, ou configurez explicitement le fournisseur sous models.providers.vllm.Aucun modèle détecté
Aucun modèle détecté
La détection automatique exige que
VLLM_API_KEY soit défini et qu’aucune entrée explicite models.providers.vllm ne soit présente. Si vous avez défini le fournisseur manuellement, OpenClaw ignore la détection et utilise uniquement les modèles que vous avez déclarés.Liés
Sélection de modèle
Choisir les fournisseurs, les références de modèle et le comportement de basculement.
OpenAI
Fournisseur OpenAI natif et comportement des routes compatibles OpenAI.
OAuth et authentification
Détails d’authentification et règles de réutilisation des identifiants.
Dépannage
Problèmes courants et comment les résoudre.